text_structure.xml 54.3 KB
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
  <xi:include href="PPC_header.xml" />
  <TEI>
    <xi:include href="header.xml" />
    <text>
      <body>
        <div xml:id="div-1">
          <u xml:id="u-1.0" who="#GrzegorzBernardNapieralski">Są z nami także przedstawiciele środowisk naukowych: kierownik Zakładu Nauki Administracji na Wydziale Prawa i Administracji Uniwersytetu Warszawskiego  dr hab. Mednis Arwid – jeżeli dobrze przeczytałem, jeżeli nie, to bardzo, bardzo przepraszam, panie profesorze – oraz adiunkt na Wydziale Zarządzania, pani doktor Joanna Mazur.</u>
          <u xml:id="u-1.1" who="#GrzegorzBernardNapieralski">Jeszcze raz witam wszystkich państwa bardzo serdecznie. Porządek dzisiejszego posiedzenia przewiduje przedstawienie przez prezesa Urzędu Ochrony Danych  Osobowych informacji na temat ochrony praw podstawowych oraz danych osobowych  (w tym danych profilowych) w kontekście korzystania ze sztucznej inteligencji i algorytmów cyfrowych. Czy są uwagi do porządku obrad? Nie widzę, w takim razie przystępujemy do realizacji porządku dziennego.</u>
          <u xml:id="u-1.2" who="#GrzegorzBernardNapieralski">Bardzo proszę pana prezesa Wróblewskiego o przedstawienie informacji.</u>
          <u xml:id="u-1.3" who="#MirosławWróblewski">My postrzegamy i wydaje mi się, że powinniśmy postrzegać wdrożenie regulacji dotyczącej sztucznej inteligencji w kontekście całości nowych aktów prawnych cyfrowych przyjętych w Unii Europejskiej, także w kontekście europejskiej strategii w zakresie danych. Więc obok aktu o sztucznej inteligencji, na pewno wdrożenie aktu w sprawie danych i aktu w sprawie zarządzania danymi jest niezwykle istotne. Tak że jeżeli chodzi o funkcje, które ma pełnić Urząd Ochrony Danych Osobowych, jesteśmy w stałym kontakcie i współpracujemy z Ministerstwem Cyfryzacji, szczególnie w kontekście DGA.</u>
          <u xml:id="u-1.4" who="#MirosławWróblewski">Jeżeli chodzi o kwestie już stricte związane z aktem o sztucznej inteligencji i z zasadami przetwarzania danych, które wynikają z ogólnego rozporządzenia o ochronie danych, z pewnością z uwagi na to, że są to dwa odrębne reżimy prawne, ale takie, które będą współegzystować jako rozporządzenia w porządku prawnym i wiązać państwa członkowskie, niezwykle istotne jest przestrzeganie zasad przetwarzania danych, które są podstawowym paliwem dla uczenia się algorytmów i ich działania. Te zasady to przede wszystkim minimalizacja danych, ograniczenie celu, dokładność, integralność  i poufność. Z perspektywy skutecznego działania przepisów prawa niezwykle istotna jest skuteczna realizacja praw osób, których dotyczą dane. Wiemy, że specyfika działania systemu sztucznej inteligencji, chociażby efekt czarnej skrzynki, który może uniemożliwiać jasne wyjaśnienie przyczyn takiej, a nie innej decyzji podjętej w stosunku do jednostki, mogą to być bardzo istotne kwestie, zabezpieczenie ich realizacji jest niezwykle istotne. Szczególną uwagę należy zwrócić na art. 22 RODO, który dotyczy zautomatyzowanego przetwarzania danych i gwarantuje prawo do niepodlegania decyzji opartej wyłącznie na takim przetwarzaniu.</u>
          <u xml:id="u-1.5" who="#MirosławWróblewski">Jednocześnie troszkę z boku, ale trzeba mieć taką świadomość, że na gruncie Rady Europy została wypracowana konwencja dotycząca sztucznej inteligencji. Zawiera ona bardziej ogólne postanowienia, w dużej mierze dotyczące kwestii działania państwa prawa, działania państwa demokratycznego, chociażby w kontekście wyborów. Jest  to zatem kwestia, której na pewno też nie można pominąć. Oczywiście także wypracowane na gruncie organizacji międzynarodowych inne zasady mające charakter bardziej miękki, które w charakterze standardów także warto uwzględniać.</u>
          <u xml:id="u-1.6" who="#MirosławWróblewski">Na marginesie wspomnę też, że oczywiście te wyzwania są już dzisiaj. Już dzisiaj toczą się postępowania, także w naszym urzędzie, dotyczące mechanizmów użycia sztucznej inteligencji, które budzą wątpliwości co do przestrzegania praw podstawowych.</u>
          <u xml:id="u-1.7" who="#MirosławWróblewski">Jeżeli chodzi o relacje między rozporządzeniem a aktem o sztucznej inteligencji, ostatnio już o tym wspominałem, to jest wszystkim znany przepis art.2 ust.7 aktu, który stanowi, że prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji stosuje się do danych osobowych przetwarzanych w związku z prawami  i obowiązkami ustanowionymi właśnie w akcie o sztucznej inteligencji, a zatem konieczne jest ustalenie jak te dwa rozporządzenia mogą być współstosowane. Oczywistym jest, że z punktu widzenia ochrony danych osobowych, a więc podstawowego zadania organów nadzorczych, niezwykle istotne jest to, że systemy sztucznej inteligencji w obszarze wykorzystującym dane osobowe mogą realizować właśnie operacje przetwarzania danych osobowych, o których mowa w RODO oraz mogą składać się na zautomatyzowane podejmowanie decyzji w indywidualnych przypadkach, właśnie w rozumieniu wspominanego już art. 22.</u>
          <u xml:id="u-1.8" who="#MirosławWróblewski">Tu po lewej stronie – może już nie będę tego szczegółowo omawiać – to podstawowe zadania i wyzwania jednocześnie, które dotyczą relacji między przetwarzaniem danych osobowych a funkcjonowaniem sztucznej inteligencji. Na pewno wielkim wyzwaniem jest to, że każdy system sztucznej inteligencji w całym jej cyklu życia powinien spełniać trzy warunki: być zgodny z prawem, w tym z prawami podstawowymi zawartymi przede wszystkim w Karcie Praw Podstawowych Unii Europejskiej, zawierać zasady i reguły etyki dla godnej zaufania sztucznej inteligencji, być bezpieczny i odporny technicznie. Mając to na względzie, mając na względzie te zasady i te wyzwania, mając na względzie także tę perspektywę legislacyjną zaczęliśmy pracować w urzędzie nad pewną propozycją wskazówek dotyczących projektowania i dostosowywania przepisów prawa krajowego właśnie w zakresie regulacji systemów sztucznej inteligencji w zapewnieniu stosowania AI Act w kontekście ochrony danych osobowych. Oczywiście zdajemy sobie sprawę, że wyzwań jest więcej, natomiast mamy nadzieję, że jeżeli ten temat będzie przedmiotem zainteresowania czy poszczególnych resortów, w szczególności Ministerstwa Cyfryzacji i Wysokiej Izby, te propozycje mogą być oczywiście uszczegóławiane i możemy nad nimi dalej pracować. To oczywiście nie jest pełny projekt, to jest tylko i wyłącznie zarys. W ramach mojej pracy jeszcze w Biurze Rzecznika Praw Obywatelskich przygotowanie takiej pełnej checklisty dotyczącej wdrażania przyjmowania także aktów prawnych związanych z Kartą Praw Podstawowych jako warunkiem horyzontalnym w przypadku finansowania z funduszy Unii Europejskiej zajęło blisko rok, ale myślę, że takie doświadczenia mogą być wykorzystywane.</u>
          <u xml:id="u-1.9" who="#MirosławWróblewski">Co jest ważne przygotowywaniu takich aktów prawnych? Po pierwsze, rozpoznanie i odpowiednie przyporządkowanie ryzyk związanych z wykorzystaniem systemów AI w danej dziedzinie i sektorze. Tu oczywiście treść aktu w części rozstrzyga już  te wątpliwości, dzieląc systemy sztucznej inteligencji na kilka kategorii, jeżeli chodzi  o ryzyko. Oczywiście kwestia systemów o wysokim ryzyku jest najistotniejsza z perspektywy ewentualnych wyzwań i możliwych szkód, a także, z drugiej strony, obowiązków podmiotów stosujących systemy sztucznej inteligencji. Ale to także oczywiście kwestia interpretacji już na poziomie krajowym możliwości zastosowania tych ogólnych reguł.  To także identyfikacja poszczególnych zagrożeń mających charakter już bardzo praktyczny, związanych z przetwarzaniem danych w oparciu o systemy AI, czyli tutaj przykłady chociażby ryzyka algorytmicznej dyskryminacji. Bardzo szeroko poruszane już  w różnych badaniach, ale pokazujące taki immanentny, wpisany niejako w funkcjonowanie algorytmów mechanizm. I oczywiście zawarte w tym kontekście w kacie przepisy  o charakterze gwarancyjnym. Ale znowu – ta analiza powinna odbyć się także na poziomie krajowym. To także określenie właściwej podstawy prawnej przetwarzania danych osobowych na potrzeby trenowania sztucznej inteligencji w oparciu o metody gromadzenia ponownego wykorzystywania danych.</u>
          <u xml:id="u-1.10" who="#MirosławWróblewski">Niezwykle istotne na poziomie przyjmowania krajowego ustawodawstwa i do wykonywania oceny skutków dla ochrony danych i testu prywatności, łącznie z tymi podstawowymi zasadami privacy by design i privacy by default wynikającymi z RODO. Trzeba powiedzieć, że w dużej mierze to w przypadku, kiedy jako urząd otrzymujemy prośby  o zaopiniowanie aktów prawnych bądź to z resortów, bądź to z Sejmu, przede wszystkim kwestia braku przeprowadzenia odpowiedniej oceny skutków dla ochrony danych jest takim najczęstszym – można powiedzieć wprost – mankamentem czy problemem, który oczywiście ma charakter systemowy. Dlatego też pozwalam sobie zwrócić na to szczególną uwagę.</u>
          <u xml:id="u-1.11" who="#MirosławWróblewski">W tym zakresie bardziej szczegółowo, już zupełnie w takim wielkim skrócie należy przede wszystkim ocenić, czy cel ingerencji ustawodawczej został wyraźnie, precyzyjnie, jasno i wyczerpująco określony, nie pozostaje w sprzeczności z prawem do prywatności, czy cele projektu lub zakres nowelizacji nie godzą w zasady ochrony danych osobowych wynikającej już z karty RODO tudzież dyrektywy 2016/680. Także czy cele danego ustawodawczego projektu lub zakres nowelizacji nie naruszają zasad ochrony prywatności wynikających z prawa międzynarodowego, w szczególności konwencji Rady Europy,  art. 8 Europejskiej Konwencji Praw Człowieka wraz z orzecznictwem trybunałów  i tutaj co prawda jest osobny punkt, ale można powiedzieć tak, że zarówno jeżeli chodzi interpretację tych postanowień konstytucyjnych unijnych czy konwencji Rady Europy, orzecznictwo trybunałów jest niezwykle istotne. My staramy się na to zwracać uwagę  i we współpracy z ministrem do spraw Unii Europejskiej na bieżąco analizujemy wyroki Trybunału Sprawiedliwości, w szczególności dotyczące ochrony danych osobowych  i zgłaszamy nasze uwagi odnośnie do nowelizacji ustawy, ale trzeba mieć to na względzie już przy projektowaniu każdego aktu prawnego.</u>
          <u xml:id="u-1.12" who="#MirosławWróblewski">Wreszcie niezwykle istotne są wymagania proporcjonalności, a także odpowiednie gwarancje proceduralne, środki prawne i środki techniczne. Kolejne punkty – i może tutaj będę już to naprawdę skracać – trzeba określić, w jakim zakresie poszczególne podmioty przetwarzają dane osobowe, które są jakkolwiek zaangażowane w przetwarzanie danych osobowych w systemach sztucznej inteligencji, czy kolejne zasady ochrony danych osobowych są przestrzegane, jak wygląda kwestia przepływu danych, kwestia retencji danych, czy przetwarzane są dane szczególnej kategorii lub dane osób wymagających specjalnego traktowania, takie jak osoby niepełnoletnie czy osoby z niepełnosprawnościami. Takie elementy jak środki pozwalające na kwestionowanie decyzji podejmowanych przez systemy AI czy też właśnie przetwarzanie szczególnych danych muszą być wzięte pod uwagę.</u>
          <u xml:id="u-1.13" who="#MirosławWróblewski">Oczywiście jest to bardzo szeroka lista, ale tego typu lista kontrolna, tego typu wskazówki, które – mam nadzieję – mogą pomóc przy takim systemowym wypracowywaniu nowych aktów prawnych, przy wdrażaniu tego aktu mogłyby pomóc w uczynieniu tego w sposób systemowy. Oczywiście są to kwestie niezwykle istotne z punktu widzenia ochrony danych osobowych. Zupełnie tak na marginesie dodam, że być może mogłyby one ulec rozszerzeniu także o inną problematykę. To już pozostaje poza zakresem właściwości naszego organu.</u>
          <u xml:id="u-1.14" who="#MirosławWróblewski">W zasadzie podsumowując, chciałbym zwrócić uwagę na pewne wyzwania już z perspektywy Urzędu Ochrony Danych Osobowych i tego, co robimy. Biorąc pod uwagę, że jest to dzisiaj ogromne wyzwanie, staramy się organizować i będziemy dalej współpracować, jeżeli chodzi o wydarzenia i o charakterze konferencyjnym czy seminaryjnym. Także odnośnie do wyzwań z tym związanych ostatnio mieliśmy okazję podpisać porozumienie z rzeczniczką praw dziecka dotyczące badań i edukacji, także w zakresie sztucznej inteligencji, jeżeli chodzi ochronę praw dziecka. Mogę powiedzieć, że urząd  i ja osobiście wraz ze współpracownikami uczestniczymy przede wszystkim w pracach  Europejskiej Rady Ochrony Danych Osobowych, gdzie przede wszystkim chciałbym wskazać na podgrupę analizującą sprawę chatGPT oraz podgrupę ds. technologii. Chciałbym także zwrócić uwagę na to, że poszczególne organy nadzoru wydały już takie wstępne materiały bądź też wskazania, bądź też prowadzą właśnie konsultacje. Jeżeli dzisiejsze spotkanie można uznać za część takiej pracy, to wydaje mi się, że to właśnie jest jeden z elementów rozmowy publicznej debaty nad wdrażaniem aktu o sztucznej inteligencji.</u>
          <u xml:id="u-1.15" who="#MirosławWróblewski">Na poziomie europejskim, w naszej ocenie wydaje się, że należy spodziewać się sporządzenia wytycznych dotyczących relacji pomiędzy RODO a AI Act. Takie wytyczne w ciągu 18 miesięcy od wejścia w życie powinna sporządzić Komisja Europejska, ale na pewno będziemy nad tym pracować także na forum rady. Natomiast obecnie szykujemy się już do pracy nad wytycznymi w sprawie scrapingu danych na potrzeby generatywnej sztucznej inteligencji.</u>
          <u xml:id="u-1.16" who="#MirosławWróblewski">Jeżeli chodzi o nasze plany, oprócz kwestii oczywiście zapewnienia naszego doradztwa w zakresie projektowania aktów i opiniowania aktów prawnych, chcielibyśmy  i chciałbym, żeby Urząd służył pomocą w tworzeniu materiałów edukacyjnych dotyczących ochrony danych przetwarzanych z wykorzystaniem sztucznej inteligencji, także w kontekście tworzenia wskazówek dla administratorów dotyczących ochrony danych osobowych w kontekście AI. Mamy na względzie także budowę zdolności Urzędu poprzez udział w piaskownicach regulacyjnych na poziomie krajowym i unijnym.</u>
          <u xml:id="u-1.17" who="#MirosławWróblewski">To jest szereg działań, które oczywiście bierzemy pod uwagę i planujemy w zakresie naszych możliwości i zdolności, zarówno jeżeli chodzi o działalność międzynarodową, jak i działalnością krajową. Oczywiście jesteśmy otwarci na wszelkie sugestie. Zakładam,  że to spotkanie może służyć także takiemu celowi. Ja ze swojej strony na pewno i ze współpracownikami będziemy uważnie przysłuchiwać się dzisiejszej debacie. Bardzo dziękuję, panie przewodniczący. Dziękuję państwu.</u>
          <u xml:id="u-1.18" who="#GrzegorzBernardNapieralski">Otwieram dyskusję. Czy ktoś z państwa chciałby zabrać głos? Moja gorąca prośba: ponieważ wszystko jest nagrywane i protokołowane, abyśmy mogli to wszystko dobrze spisać, proszę o przedstawianie się. Patrzę jeszcze na pana posła Cieszyńskiego i chciałbym dodać, że myślę, że uda się zrobić dobre prawo ponad podziałami politycznymi, partyjnymi. Pani Joanno, pozwoli pani, że najpierw…</u>
          <u xml:id="u-1.19" who="#JoannaKarczewska">Mam jedno pytanie, zresztą nawiązujące do poprzedniego posiedzenia podkomisji:  na której wersji polskiej pracuje urząd? Ponieważ jeżeli jest to wersja pobrana ze strony Parlamentu Europejskiego, to wersja polska AI Act zawiera bardzo rażące błędy w tłumaczeniu. Podam jeden przykład – zrównano governance z management. Ja to przez analogię porównuję z ministrem cyfryzacji – czy minister cyfryzacji zasiada  w government, czyli rządzie czy też w zarządzie czyli management Rzeczpospolitej Polskiej.  Jeżeli my zrównamy governance i management w AI Act, to będziemy mieli bardzo poważne kłopoty. Zresztą kłopoty z tłumaczeniem pojawiły się także w przypadku RODO. Do dziś dnia z nich nie wybrnęliśmy. Przekazałam panu prezesowi moją najnowszą analizę i uważam, że to jest ten moment, kiedy musimy, powtarzam: musimy jednak dojść do momentu, kiedy jeszcze raz zweryfikujemy tłumaczenie, żebyśmy później uniknęli jakichkolwiek nieporozumień, szczególnie jeżeli powstają już grube cegły o nazwie „Komentarz do rozporządzenia”. Tak jak było w przypadku RODO. To później jest nie do wycofania, nie do wyjaśnienia, jak obserwuję. Dziękuję.</u>
          <u xml:id="u-1.20" who="#MirosławWróblewski">Na pytanie pana posła mogę odpowiedzieć tak, że oczywiście jeżeli chodzi o zasoby urzędu, to w zakresie technologicznym są one niewystarczające, żeby sprostać tym zadaniem, które wiążą się nawet tylko i wyłącznie z ochroną danych osobowych. Wiemy,  że dzisiaj trwają, przeprowadzone zostały przez Ministerstwo Cyfryzacji także prekonsultacje odnoszące się do organu, któremu miałby być powierzony nadzór w tym zakresie. Więc ja realistycznie muszę zakładać każdą wersję, to znaczy, że te zadania zostaną przypisane Urzędowi Ochrony Danych Osobowych, albo że powstanie nowy urząd, albo że zostanie to podzielone pomiędzy inne, albo przypisane innym. Oczywiście jest wiele możliwości i nie wiemy, jak to będzie wyglądać. To, co musimy i robimy, to uczestniczymy i rozmawiamy z partnerami, także w zakresie biznesu i organizacji przedsiębiorców rozmawiając o tej tematyce. Wczoraj na przykład brałem udział w Forum Bezpieczeństwa Banków wraz z panią dyrektor Krasińską i pracownikami Departamentu Orzecznictwa i Legislacji. Rozmawiamy na temat kwestii funkcjonowania sztucznej inteligencji właśnie także w bankowości, w instytucjach finansowych. Staramy się uzupełniać wiedzę w tym zakresie i wydaje mi się, że jesteśmy w stanie robić to na bieżąco pod względem prawnym i ogarnąć ten temat.</u>
          <u xml:id="u-1.21" who="#MirosławWróblewski">Natomiast jeżeli chodzi o kwestie technologiczne, rzeczywiście Urząd nie posiada dzisiaj takich zasobów i z pewnością, ale także w zakresie decyzji merytorycznych, które będą podejmowane przez rząd i przez parlament, w zależności od zadań, które będą podejmowane na pewno kwestie zasobów w tym zakresie urzędów powinny ulec wzmocnieniu. Wydaje mi się, że wszyscy tutaj jesteśmy świadomi, że Polska jako państwo  od strony instytucjonalnej będzie musiała zaangażować także środki w tym zakresie.</u>
          <u xml:id="u-1.22" who="#GrzegorzBernardNapieralski">Chciałem tylko powiedzieć tyle, panie pośle, że być może – ja staram się, żeby nasza podkomisja była otwarta, w sensie kto ma ochotę przyjść, żeby przyszedł – być może taką poważną dyskusję trzeba odbyć również tutaj na sali sejmowej z dużymi firmami, które tworzą te technologie, posłuchać tak naprawdę ich opinii. Przecież, tak jak pan powiedział, oni mają potężnych inżynierów, którym naprawdę płacą olbrzymie pieniądze i nam posłom, posłankom bardzo ciężko jest się z nimi mierzyć, bo my trochę z doskoku zajmujemy się tymi sprawami.</u>
          <u xml:id="u-1.23" who="#GrzegorzBernardNapieralski">Proszę bardzo, czy ktoś jeszcze chciałby zabrać głos? Bardzo proszę. To tak po kolei, najpierw pani, później pan. I tak jak zawsze mówię, proszę o przedstawienie się.</u>
          <u xml:id="u-1.24" who="#GrzegorzBernardNapieralski">To ja jeszcze raz wyjaśnię: jest taki dziwny system, mało technologiczny. Jest taka pinezka tutaj i trzeba ją dotknąć do lewego głośnika i wtedy wszystko będzie działać.</u>
          <u xml:id="u-1.25" who="#LigiaKornowska">Chciałabym ustrukturyzować tę dyskusję, jeśli chodzi o wykorzystywanie danych  do trenowania AI i wykorzystywanie danych do użytkowania sztucznej inteligencji.  Bo jeśli chodzi o ochronę zdrowia, to jeśli chcemy wykorzystać jakikolwiek algorytm sztucznej inteligencji do diagnozowania i leczenia pacjenta, taki algorytm musi być certyfikowany. I z praktyki widzimy, że dostawcy poważnie podchodzą do tematu ochrony danych i zazwyczaj te dane są dobrze chronione. Warto wspomnieć, że duże modele językowe nie są certyfikowanym wyrobem medycznym. Natomiast duży problem czy duże wyzwanie mamy, jeśli chodzi o zbieranie danych do trenowania algorytmów sztucznej inteligencji. Warto tu podkreślić, że żeby algorytm dobrze działał na populacji na przykład polskiej, warto by było, żeby był zasilany również danymi od populacji polskiej albo od populacji europejskiej. I mamy takie wątpliwości, zarówno w kontekście danych anonimowych i danych osobowych, bo teraz na przykład podmioty lecznicze mają wątpliwości w kontekście tego, czy dane gromadzone w celach pierwotnych, czyli w celu diagnozy i leczenia pacjenta, mogą być po prostu zanonimizowane i później przekazywane dalej, jaki powinien być standard anonimizacji takich danych – bo przy danych medycznych usunięcie imienia i nazwiska to zdecydowanie za mało – w jaki sposób podmioty trzecie miałyby ubiegać się o dostęp do takich danych, nawet zanimizowanych, czy dane mogą być przekazywane na cele komercyjne dla firm komercyjnych, które tworzą algorytmy AI, ale później oczywiście będą te algorytmy sprzedawać, czy za przekazanie takich danych można pobierać korzyści finansowe i jak się ma do tego ustawa o prawach pacjenta  i rzeczniku praw pacjenta ust. 26, który mówi, że dane pozbawione imienia i nazwiska podmiot leczniczy może przekazać uczelni wyższej bądź instytutowi badawczemu, co wydaje się zawężać krąg podmiotów, które mogą otrzymywać dostęp do danych – chyba anonimowych, ale pozbawionych imienia i nazwiska to trudno powiedzieć.</u>
          <u xml:id="u-1.26" who="#LigiaKornowska">Drugie pytanie czy drugie wyzwanie, które zauważamy w sektorze to jest wyzwanie związane z dostępem do danych, których nie da się zanonimizować albo do danych osobowych po prostu, gdzie do wykorzystania takich danych po prostu zazwyczaj jest potrzebna zgoda pacjenta. I wydaje się, że taka regulacja jak Data Governance Act może istotnie wspomóc cały sektor do tworzenia dobrych standardów dostępu do danych osobowych, ale też edukacji społeczeństwa w zakresie przekazywania takich danych osobowych na cele B+R. Mówimy o tzw. dawstwie danych na wzór dawstwa krwi, realizowaliśmy projekty, które opierały się na zgodzie pacjenta i na podstawie zgody pacjenta dane były analizowane i służyły nauce. Nawet jest taki projekt pod Agencją Badań Medycznych Centrów Medycyny Cyfrowej, gdzie pacjenci wyrażają zgodę na przekazanie swoich danych i tkanek dla celów właśnie później m.in. trenowania algorytmów AI.  Więc podsumowując, mamy duże wyzwania, jeśli chodzi o dostęp do danych medycznych dla celów trenowania AI, ale w ogóle dla nauki – myślę, że można to rozszerzyć. I potrzebne nam są wytyczne zarówno w zakresie stworzenia mechanizmu dostępu do danych anonimowych, które pierwotnie były gromadzone w celach pierwotnych, jak  i wypromowania takiego podejścia bazującego na zgodzie pacjenta. Dziękuję.</u>
          <u xml:id="u-1.27" who="#MonikaKrasińska">W drugiej kolejności na pewno też to spojrzenie horyzontalne na Europejską Radę Ochrony Danych Osobowych. Europejska Rada Ochrony Danych Osobowych jest świadoma wyzwań, jakie są związane także z przetwarzaniem danych osobowych medycznych. I myślę, że my jako uczestnicy, na forum różnego rodzaju dyskusji prowadzonych w Europejskiej Radzie Ochrony Danych Osobowych też będziemy mieli okazję usłyszeć, jakie będą kierunki, rekomendacje, kierunki interpretacji różnych przepisów i identyfikacji ryzyk związanych z przetwarzaniem danych o stanie zdrowia. Koncentruję się na tej materii z uwagi na odpowiedź udzieloną pani, ale przecież mówimy też o szerszym kontekście przetwarzania – generalnie – danych osobowych w związku z zastosowaniem wszystkich tych aktów unijnych, w tym aktu o sztucznej inteligencji. Tak że na pewno czekamy także niecierpliwie na sygnały z Europejskiej Rady Ochrony Danych, czekamy także, szanowni państwo, na różnego rodzaju analizy wykonywane przez administratorów. Oni też muszą oszacować szereg ryzyk, pokazać możliwości. Urząd Ochrony Danych Osobowych przyjrzy się – i to deklarujemy od dawna – wszelkim propozycjom związanym z wprowadzanymi różnymi nowymi technologiami. Proszę pamiętać, że rozporządzenie  o ochronie danych osobowych daje ogromną przestrzeń autonomii decyzyjnej, jeśli chodzi o kształtowanie warunków bezpiecznego i zgodnego z prawem przetwarzania danych. Ale tutaj również jest ogromna praca przed różnymi sektorami dotycząca tej analizy ryzyk, weryfikacji możliwych do wprowadzenia rozwiązań. A Urząd Ochrony Danych Osobowych niewątpliwie będzie brał udział w konsultacjach w tym obszarze i także wydawał określone rekomendacje, poradniki. Jesteśmy do tego przygotowani.</u>
          <u xml:id="u-1.28" who="#GrzegorzBernardNapieralski">Jeszcze króciutko oddaję pani głos i później tam z tyłu…Proszę bardzo.</u>
          <u xml:id="u-1.29" who="#MichałNowakowski">Pierwsza kwestia to jest kwestia edukacji przedsiębiorstw oraz obywateli w zakresie zależności pomiędzy sztuczną inteligencją a ochroną danych osobowych. To też w dużej mierze jest powiązane z drugim punktem, na który chcielibyśmy zwrócić uwagę, czyli kwestia pewnej standaryzacji oraz tworzenia tych wytycznych. O tych wytycznych była mowa w trakcie prezentacji pana prezesa i to jest oczywiście bardzo istotne. Tutaj dobrym przykładem rzeczywiście jest francuski organ ochrony danych, który dość aktywnie  de facto edukuje, tworząc stosowne wytyczne czy rekomendacje, czy dokumenty, które po prostu wyjaśniają pewne podejście. Natomiast przy tej okazji chciałbym zwrócić jeszcze uwagę na jedną rzecz – mamy AI Act, mamy przepisy o ochronie danych osobowych,  ale jest jeszcze na przykład kwestia cyberbezpieczeństwa, która jest coraz – powiedziałbym – legislacyjnie bardziej rozbudowana. Coraz więcej podmiotów będzie miało też konkretne problemy o charakterze regulacyjnym czy też prawnym. W związku z tym, do tego elementu dodałbym jeszcze ten trzeci, związany właśnie z kwestią cyberbezpieczeństwa, tak aby podmioty, które mają stosować określone przepisy – czy to AI Act, czy to RODO, czy to właśnie na przykład ustawa o KSC, która obecnie jest rewidowana – rzeczywiście wiedziały, jakie są zależności pomiędzy różnymi regulacjami, pomiędzy różnymi aktami prawnymi. Myślę, że to będzie bardzo istotne. I to z kolei łączy się z trzecim aspektem, czyli kwestią współpracy i koordynacji. Jak mieliśmy pierwszy projekt ustawy wdrażającej – ona oczywiście trafi do zamrażarki – ale wdrażającej na przykład DGA, to jak ja czytałem przepisy instytucjonalne dotyczące tego kto i czym ma się zajmować, to ja kompletnie nie byłem w stanie tego zrozumieć, a zajmuję się tym zawodowo. W sytuacji, w której mamy przedsiębiorców, którzy chcą uzyskać na przykład jakieś wsparcie, chcą uzyskać jakieś konkretne informacje, bardzo istotne jest to, żeby wiedzieli, do kogo się zgłosić. I oczywiście najlepszym rozwiązaniem wydaje mi się czy wydaje nam się, jest stworzenie takiego Single Point of Contact. Ale stworzenie tego Single Point of Contact wymaga rzeczywiście odpowiednich rozwiązań w zakresie tej współpracy i koordynacji pewnych działań, ponieważ mamy tutaj kilka materii. Nie będę wchodził w kwestie rozwiązań instytucjonalnych dotyczących tego, kto będzie market surveillance, na przykład pod AI Act, odpowiedzialny za te kwestie. To już pewnie będzie rozstrzygnięte na poziomie Ministerstwa Cyfryzacji.</u>
          <u xml:id="u-1.30" who="#MichałNowakowski">Czwarty element to jest kwestia zasobów dla urzędu. Ta kwestia już dość mocno tutaj wybrzmiała. Chciałbym zwrócić uwagę na dwie kwestie. Pierwsza jest taka, że oczywiście eksperci są bardzo potrzebni, ponieważ to jest bardzo specyficzna dziedzina na przykład w kontekście wyjaśnialności. Natomiast to są eksperci, którzy do tanich nie należą.  I to też należy uwzględnić projektując nawet same przepisy czy też decydując o wysokości tego wsparcia budżetowego dla określonych organów, ale jako taki element, powiedziałbym, wspierający. On nie rozwiązuje problemu, ale na pewno będzie miał istotne znaczenie. To jest też zaangażowanie ośrodków, które już dzisiaj tą wiedzą dysponują, na przykład ośrodki badawcze, jednostki naukowe, które również mogą w jakiś sposób wspierać organy w realizacji ich ustawowych i statutowych obowiązków.</u>
          <u xml:id="u-1.31" who="#MichałNowakowski">I piąty ostatni element, który już wiem że zyskał jakąś trakcję tak naprawdę i pewnie będzie realizowany, ale chciałbym go jeszcze raz z pełną mocą podkreślić, to jest kwestia trustworthy AI, czy responsible AI albo szerzej, etyki sztucznej inteligencji, tak aby nie tracić tego elementu z oczu, pomimo tego, że oczywiście etyka to nie jest to samo, co twarde przepisy prawa, ale jednak mimo wszystko te zależności muszą być tutaj uwzględniane.</u>
          <u xml:id="u-1.32" who="#MichałNowakowski">Jeszcze jedna rzecz, która w kontekście tej etyki AI jest bardzo istotna i która tutaj też wybrzmiała, to jest kwestia wyjaśnialności. To znaczy naszym zdaniem przedsiębiorstwa, które tworzą albo wykorzystują określone rozwiązania muszą wiedzieć, jakie są realne oczekiwania w zakresie przejrzystości co do konkretnych rozwiązań. Czy to będzie połączenie tego z klasyfikacją, która jest wskazana w AI Act, czy to będzie rozstrzygnięte w inny sposób, to już pozostawiam na dalszy etap jakichś prac, pewnie grup roboczych. Ale przejrzystość w tym sensie że…Może inaczej – jasna komunikacja oczekiwań  w tym zakresie będzie bardzo istotna też z punktu rozwoju sztucznej inteligencji także  w Polsce. Dziękuję bardzo.</u>
          <u xml:id="u-1.33" who="#RomanBieda">Proszę państwa, krótko chciałbym poruszyć tylko trzy punkty, takie które wydają mi się szczególnie istotne dla państwa z punktu widzenia legislacyjnego. Pierwsza kwestia, która była już dyskutowana i chciałbym jeszcze raz ją podkreślić, to jest kwestia tego, że w tym gronie wszyscy zdajemy sobie sprawę, jakie są zasady zautomatyzowanego podejmowania decyzji, kwestia związania celem, kwestia postaw przetwarzania. I wydaje się, że była mowa o danych medycznych czy danych osobowych w sektorze medycznym, ale trzeba to potraktować szerzej i w związku z tym proponowalibyśmy szerszy przegląd całej polskiej legislacji w kierunku wprowadzenia ewentualnie przepisów, które umożliwiają zmianę celu przetwarzania wcześniej zebranych danych osobowych na potrzeby uczenia modeli sztucznej inteligencji, bo jak powiedział pan przewodniczący, jeżeli tych danych nie dostarczymy, to nie będziemy mieli dobrych modeli. Więc trzeba coś takiego zrobić, taki przegląd, wskazać, w których miejscach jest możliwe to zautomatyzowane podejmowanie decyzji, w których miejscach jest wcześniej możliwa zmiana celu przetwarzania na potrzeby uczenia modeli – oczywiście z pełnym zabezpieczeniem praw podstawowych, w pełnym zakresie zabezpieczeniem praw wolności osób, których te dane dotyczą, a co najważniejsze z mojej perspektywy, w pełnym poszanowaniu Konstytucji art. 31 ust. 3, jeżeli pamiętam. Więc to jest pierwsze zagranie.</u>
          <u xml:id="u-1.34" who="#RomanBieda">Druga kwestia, na którą tylko tak punktowo chciałem zwrócić uwagę, to jest kwestia piaskownic regulacyjnych – niezwykle istotna rzecz. AI Act mówi tak: chcemy wspierać innowacje z poszanowaniem godnej zaufania sztucznej inteligencji nakierowanej na człowieka. Jednym z tych elementów wsparcia innowacji jest tworzenie piaskownic regulacyjnych. Zgodnie z AI Act każde państwo ma taką piaskownicę stworzyć, w ciągu bodajże 24 miesięcy od przyjęcia AI Act. I oczywiście komisja wyda nam akt delegowany, który w szczegółach będzie opisywał zasady tworzenia tych piaskownic. Natomiast koniecznie jest też działanie legislacyjne krajowe, jak się wydaje, i wskazanie organów nadzoru, na uprawnienia tych organów, na zasady współpracy między organami, na zasady udzielania zezwoleń na prowadzenie testów w tych piaskownicach. To ma być takie kontrolowane środowisko nadzorcze, w którym pod nadzorem będziemy trenować i wykorzystywać te najnowsze, najbardziej innowacyjne systemy. Tak naprawdę wdrażać przed wprowadzeniem do obrotu.</u>
          <u xml:id="u-1.35" who="#RomanBieda">I proszę państwa, ostatnia rzecz, która z mojej perspektywy jest najbardziej interesująca – z koleżanką z fundacji prowadziliśmy chyba pierwsze w Polsce badania dotyczące prawa w tym zakresie, a mianowicie rozwój technologii kwantowej. Stoimy u progu kolejnego przełomu technologicznego. Rozwój technologii kwantowej, w szczególności rozwój komputerów kwantowych będzie absolutnym game changer mającym wpływ na całą gospodarkę, suwerenność cyfrową, bezpieczeństwo narodowe. Głównie mówi się tu oczywiście w kontekście złamania aktualnych zabezpieczeń kryptograficznych –  algorytm Shora, algorytm Grovera – ale nie o tym chciałbym dzisiaj mówić. Komputery kwantowe to olbrzymia moc obliczeniowa, miliony, dziesiątki milionów, setki milionów razy większa niż aktualnie działające systemy. Ale to nie tylko wielka moc obliczeniowa, to również inny sposób działania. Bazując na fizyce kwantowej na efektach superpozycji stanów kwantowych, splątania będą algorytmy, które będą działały w inny sposób.  A co za tym idzie, możliwe będzie analizowanie danych w większym zakresie, szybciej, ale też w inny sposób – wskazywanie na nowe wzorce w danych, nowe wzorce, nowe powiązania, wyciąganie innych wniosków, szerzej daleko idących wniosków.</u>
          <u xml:id="u-1.36" who="#RomanBieda">Z jednej strony oczywiście to jest bardzo dobre i Unia Europejska zwraca na to uwagę i przecież podjęła decyzję o tym, że decyzją Parlamentu „Droga ku cyfrowej dekadzie do 2030 r.” wskazuje się, że do 2025 r. Unia Europejska będzie dysponować pierwszym komputerem kwantowym, do 2030 r. uzyska czołową pozycję w tym zakresie. Budujemy taki komputer w Poznaniu czy według doniesień prasowych on już działa, wspieramy budowanie czeskiego komputera. W ostatnich tygodniach tak naprawdę rząd przyjął Europejską Deklarację dotyczącą Technologii Kwantowych, to tak zwany Quantum Pact, będzie wspierał kwantowe startupy, będziemy budować dolinę kwantową świata w Polsce czy w Unii Europejskiej. I to jest bardzo dobre. Natomiast trzeba jeszcze pamiętać o tej drugiej kwestii, to znaczy ta moc obliczeniowa, te nowe możliwości analizy danych stwarzają, że tak powiem, w podwójnie wykładniczy sposób akcentują ryzyka, które już dzisiaj istnieją dla ochrony danych osobowych, dla prywatności, dla praw podstawowych i trzeba w tym zakresie działać legislacyjnie, aby w jakiś sposób mieć to na uwadze i przeciwdziałać tym zagrożeniom. Jeden z pomysłów, być może gdzieś w przyszłości, zmiana AI Act może w tym kierunku, aby systemy, które są wspierane przez komputery kwantowe – bo będziemy budować tak zwany Quantum AI, czyli sztuczną inteligencję wspieraną przez system kwantowy, przez komputer kwantowy – żeby te systemy z automatu były uznawane za systemy wysokiego ryzyka, z wszystkimi tego konsekwencjami. Być może na poziomie krajowym trzeba stworzyć odrębną legislację dotyczącą właśnie tego typu rozwiązań kwantowych. To idzie znacznie dalej, to są kolejne problemy, bo to jest kwestia na przykład błędów takich systemów. Być może obywatel powinien wiedzieć, że decyzja, która go dotyczy została podjęta przez system kwantowy, jakie tam jest ryzyko błędów, co zrobiono, żeby te błędy zniwelować. Więc to są te wyzwania technologii kwantowej, o których musimy już dzisiaj myśleć w kontekście ochrony prywatności. Dziękuję bardzo.</u>
          <u xml:id="u-1.37" who="#GrzegorzBernardNapieralski">Naprawdę bardzo dziękuję za ten głos. Teraz już tak bez żartów, na poważnie, bo to ważny głos w dyskusji. To może zróbmy tak – przepraszam bardzo, ja bym zapytał, czy pan prezes…Czy jeszcze mogę oddać głos? Tak? To bardzo proszę, to pan i pan i później przejdziemy do pana prezesa. Bardzo proszę.</u>
          <u xml:id="u-1.38" who="#GrzegorzBernardNapieralski">Bardzo proszę, oddaję głos.</u>
          <u xml:id="u-1.39" who="#GrzegorzBernardNapieralski">Panią Joannę musimy zatrudnić w komisji, bo wszystko obsługuje.</u>
          <u xml:id="u-1.40" who="#ArwidMednis">Chciałem jeszcze powiedzieć dwie rzeczy. Po pierwsze, wydaje mi się, że przed nami jest ogrom pracy, bo AI Act to jest tak naprawdę wstęp do tego, jak powinniśmy to również u nas wszystko ustawić. Potrzebna jest niezwykle szeroka akcja edukacyjna. Chciałbym zwrócić uwagę na taką rzecz, którą czasami poruszamy, ale bardzo rzadko. W końcu  te decyzje czy to będzie prezes UODO, czy to będzie jakiś organ, czy będą działać wspólnie, te decyzje później być może będą kontrolowane przez sądy. My mamy bardzo poważny problem z takim, że tak powiem, zrozumieniem – wiem, że pani Joanna się uśmiecha,  bo już kiedyś dyskutowaliśmy na ten temat – poważny problem ze zrozumieniem przez sądy kwestii nowotechnologicznych, jeśli mogę to tak nazwać. Przy tej okazji rozważyłbym, czy w tym zakresie, szczególnie jeśli chodzi o sztuczną inteligencję, czy być może w ogóle w kontekście ochrony danych osobowych, czy nie powołać jednak wyspecjalizowanych sądów, tak jak mamy to w przypadku ochrony własności intelektualnej. Ja też jestem radcą prawnym i powiem szczerze, że to, co czasami słyszymy, wyroki, z jakimi się spotykamy to umówmy się – ta edukacja jest dość niska. To jest trochę taki rzut monetą, co ten sąd nam powie. Nie chcę się tutaj narażać, że tak powiem, środowisku sędziowskiemu, ale ci z państwa, którzy zajmują się tym od strony praktycznej – tutaj też patrzę na pana mecenasa Okonia – to wiedzą, co mamy na myśli. To, co my wymyślimy, te przepisy i tak dalej to jest jedno. A na koniec to, co powie nam sąd, to jest czasami zupełnie coś innego. Chciałbym o to też zaapelować, żebyśmy pomyśleli też o takiej akcji edukacyjnej również wśród sędziów, ale też i o modelu kontroli i kontrolującego.</u>
          <u xml:id="u-1.41" who="#ArwidMednis">Na koniec chciałem powiedzieć taką rzecz à propos edukacji i szerokiej dyskusji. Wstępnie rozmawialiśmy z panem prezesem Wróblewskim na temat konferencji, która mogłaby odbyć się jeszcze przed wakacjami na naszym wydziale, czyli byłaby organizowana przez Wydział Prawa i Administracji Uniwersytetu Warszawskiego i prezesa UODO. Jesteśmy już na takim etapie, że prawdopodobnie to się odbędzie pod koniec czerwca. Mam też nadzieję, że uda nam się zaprosić praktyków, podyskutować –  oczywiście też w gronie prawników – ale tak à propos również tego, o czym mówił pan poseł Cieszyński, być może uda nam się zaprosić również przedstawicieli Big Techów, którzy mogliby również trochę ze swojej strony opowiedzieć, jak to wygląda, dlatego że wszyscy mamy świadomość tego, że też te systemy sztucznej inteligencji są różne. LLM to jest zupełnie coś innego niż cała reszta. Mówię to oczywiście jako przykład. Więc dobrze by było, żeby zderzyć różne punkty widzenia i porozmawiać na ten temat. Tak że jeśli to dojdzie do skutku, to też już byśmy wspólnie państwa zaprosili. W najbliższym czasie będziemy podawali szczegóły – prawdopodobnie koniec czerwca właśnie taka dyskusja na temat AI i RODO na uniwersytecie.</u>
          <u xml:id="u-1.42" who="#GrzegorzBernardNapieralski">Co do edukacji – ja pamiętam dyskusję, jak miał powstać właśnie ten sąd, który miał chronić naszą własność intelektualną. Pamiętam dyskusję w Urzędzie Patentowym.  To był bardzo dobry kierunek. Uważam, że teraz też tak powinno być. Powinniśmy iść  w tym samym kierunku, ponieważ te technologie po pierwsze, bardzo szybko się zmieniają, po drugie, są dość skomplikowane, jeżeli chodzi też o wiedzę. Więc dobrze przygotowany sędzia może poprowadzić taką sprawę. Nie chcę nikogo obrażać, ale sam uczę się tego już tyle lat i dalej jestem naprawdę daleko w tyle, a staram się uczestniczyć w każdej dyskusji. A co dopiero osoba, która z jednej strony musi, nie wiem, dać rozwód albo uznać, czy ktoś został dobrze, czy niedobrze wyrzucony z pracy, a później ktoś przychodzi do niego i mówi o algorytmie w danej aplikacji, czy ktoś złamał prawo, czy nie i to jest już po poważny problem.</u>
          <u xml:id="u-1.43" who="#GrzegorzBernardNapieralski">Ale ta sugestia, panie profesorze, jest o tyle jest ważna, że my w takim razie przygotujemy taką specjalną podkomisję z Ministerstwem Sprawiedliwości w tej sprawie. Wydaje mi się też, że powinna się odbyć dyskusja na temat informacji edukacji, jak tę edukację w ogóle przeprowadzić, gdzie ona powinna się zacząć – czy informujemy młodego człowieka już na poziomie edukacji podstawowej czy średniej, co tak naprawdę dzieje się  w technologii, czy prowadzimy kampanie społeczne – to jest najprostsze oczywiście, mając dostęp do mediów jeszcze tradycyjnych i nie tylko tradycyjnych. Ale jeżeli chcielibyśmy edukować młodych ludzi na ten temat, to już musimy na jakimś poziomie zacząć tę edukację. I chyba im szybciej, tym lepiej, bo młody człowiek mający dzisiaj dziesięć lat już nie rozstaje się z telefonem. Mieliśmy spotkanie – w ogóle przepraszam za taką jeszcze dygresję – ale mieliśmy spotkanie i z Metą i z Apple, dyskutowaliśmy z nimi i nasz taki nie tyle zarzut, ale to, co my mówimy na przykład do tych dużych Big Techów to jest to, że po ich stronie jest naprawdę rzesza inżynierów, która ma na celu jedną rzecz – przyciągnąć człowieka do ekranu, do smartfona, tableta i oni naprawdę są w tym dobrzy. A po drugiej stronie jest młody człowiek, dziewczyna i chłopak, którzy właśnie zaczynają edukację w szkole podstawowej i oni nie mają żadnych mechanizmów obronnych, żeby obronić się przed tym, co ten inżynier wymyśli, jak go przyciąga do tego telefonu.  Ja jestem za tym, żeby te firmy zarabiały, nie ma problemu, tyko jak to wypośrodkować. Jak obronić młodego człowieka, tak jak broniliśmy kiedyś młodych ludzi przed innymi zagrożeniami? Jak ich obronić? To też jest poważna dyskusja, która będzie nas czekała. Więc też dziękuję za zwrócenie na to uwagi. Mogę pana profesora oczywiście zapewnić, że będziemy taką dyskusję… też po to powstała ta podkomisja, żeby było takie miejsce do wymiany wolnej myśli, po prostu poza jakimś takim głównym nurtem sporu politycznego, już poza jakimś walkami frakcyjnymi w parlamencie, żeby właśnie o tym podyskutować. Więc myślę, że taką dyskusję też będziemy prowadzić. Myślę, że to nie są wyzwania. które stoją tylko przed nami Polakami i Polkami, bo jak rozmawia się  z Polakami, którzy studiują choćby za granicą, to tam uczelnie też mają problem, co zrobić z tym chatGPT. Niektóre uczelnie wycofują się z pisemnych prac domowych, bo uznały, że to nie ma żadnego sensu. Dużo pracy przed nami w tym zakresie, ale dziękuję, panie profesorze, jeszcze raz za ten głos i za zaproszenie. Panie prezesie, oddaję głos. Bardzo proszę.</u>
          <u xml:id="u-1.44" who="#MirosławWróblewski">Dyskusja w pewnym momencie trochę potoczyła się wokół – ale to jest zupełnie oczywiste, bo jesteśmy w takim w momencie czasowym – kwestii instytucjonalnej wyboru to co nam Unia Europejska taką takie zadanie przygotowała w zakresie wszystkich aktów cyfrowych wyznaczania organów właściwych. Więc ja może krótko tylko powiem, że przyjąłem założenie, że jesteśmy częścią organów państwa całego systemu instytucjonalnej ochrony prawnej i dlatego w lutym tego roku odpowiedzieliśmy pozytywnie na propozycję ministra cyfryzacji dotyczącej przyjęcia nowych zadań wynikających  z wdrożenia aktu o zarządzaniu danymi w zakresie pośrednictwa danych, a także rejestracji instytucji altruizmu danych. Oczywiście jak w każdym przypadku, trochę nas ośmielił nieobecny już poseł Cieszyński, zwracając uwagę na konieczność wprowadzenia pewnych rozwiązań organizacyjnych w urzędzie, przygotowania infrastrukturalnego, ale także oczywiście kadrowego. Bez tego nie ma możliwości realizacji zadań. Tak samo będziemy podchodzić do innych zadań i innych aktów, mierząc oczywiście kwestie możliwości i realizacji tych zadań. Ale zawsze naszym priorytetem pozostanie ochrona danych osobowych. Dlatego też, o ile w przypadku DGA przyjęliśmy tę sugestię, to w przypadku DSA, gdzie zwraca się uwagę, że urzędowi nie poświęcono, nie zaproponowano nowych ról – nie jest to do końca prawda, ponieważ Urząd Ochrony Danych Osobowych będzie także w ramach tego aktu wykonywał swoje funkcje, wszędzie tam, gdzie będzie dochodzić do kwestii ochrony danych osobowych. I na to w swoim orzecznictwie zwraca uwagę Trybunał Sprawiedliwości w sprawie chociażby Meta, gdzie zwrócono uwagę, że w kwestiach dotyczących wykładni przepisów o ochronie danych osobowych, przede wszystkim przepisów RODO, organ ochrony danych osobowych zawsze musi mieć szansę na wypowiedzenie się i zajęcie stanowiska jak przepisy należy wykładać. Dlatego także w tym zakresie albo musi się to odbywać w drodze praktycznej współpracy z innymi regulatorami i z innymi organami, albo musi to być ­– co wydaje się nam lepszą kwestią – wyraźnie uregulowane w przepisach prawa. Ostatnio takie sugestie przedłożyłem ministrowi cyfryzacji, także właśnie w zakresie DSA. I tak samo powinno być w zakresie aktu o sztucznej inteligencji, niezależnie od tego czy ta rola zostanie powierzona urzędowi. Oczywiście są pewne argumenty, o tym mówiła pani Dominika Skrodzka-Kwietniak  z Fundacji AI Law Tech. Za są argumenty przemawiające także bardziej za powierzeniem tego czy innym organom czy osobnemu, wspominał o tym profesor Mednis, wiem, że pisał o tym pan doktor Nowakowski, ale niezależnie od tego zawsze potrzebna będzie współpraca z innymi regulatorami. Dlatego ja od początku swojej kadencji ze współpracownikami poprosiłem o spotkania i UOKiK, i UKE, i Najwyższą Izbę Kontroli, tak żeby w zakresie dotychczasowych kompetencji, a także nowych kompetencji uzyskiwanych  w ramach nowych aktów, poświęcić ten czas na praktyczną współpracę, a także uregulowania proceduralne tym zakresie, które będą zabezpieczać kompetencje tych organów. Ale po co? Nie tylko i wyłącznie, żeby zabezpieczyć właściwość swojej królestw. Chodzi o to, żeby właściwie realizować zadania z zakresu egzekucji prawa i przede wszystkim ochrony obywateli. Po to potrzebne są te rozwiązania.</u>
          <u xml:id="u-1.45" who="#MirosławWróblewski">Jeżeli chodzi o egzekucję prawa – oczywiście mówimy tutaj o różnych kwestiach, także merytorycznych – to ja dodam, że oczywiście poza kwestiami wzmocnienia technologicznego organów, każdy tego potrzebuje. Należy oczywiście…Ja miałem na myśli, tak jak mówił pan przewodniczący, wzmocnienie kompetencji oraz zatrudnianie osób posiadających takie kompetencje. Jeżeli chodzi o egzekucję prawa trzeba pamiętać, że oczywiście AI to jest base word, tym następnym base word mogą być oczywiście kwanty. Myślę, że to wyzwanie, o którym mówił pan mecenas Bieda rzeczywiście stoi za progiem i o nim także trzeba pamiętać i do niego się przygotowywać. Ale potem pozostaje, powiedziałbym, egzekucja tych rozwiązań. I tutaj kwestia zabezpieczenia także zasobów, już mówiąc bardzo twardo, jeżeli chodzi o na przykład kontrolę – dzisiaj w zakresie danych medycznych wiemy, że jest to bardzo cenny czy może najcenniejszy dzisiaj zasób informacyjny. Powiedziałbym, że mamy do czynienia z różnymi incydentami. Urząd już dzisiaj jest w to zaangażowany. Niestety można tylko i wyłącznie projektować, że takich incydentów, tak zwanych wycieków będzie jeszcze więcej. Dlatego też potrzebne są środki na dokonywanie kontroli, pamiętając o tym, że z uwagi na to, że to są systemy informatyczne coraz bardziej zaawansowane, wykorzystujące właśnie systemy algorytmiczne, muszą ich dokonywać także osoby posiadające odpowiednią wiedzę i umiejętności. Więc zarówno pod względem jakości, jak ilości działań związanych z egzekucją prawa, takie zasoby są z pewnością potrzebne.</u>
          <u xml:id="u-1.46" who="#MirosławWróblewski">Jeżeli chodzi o rolę sądów, to co powiedział pan profesor Mednis, oczywiście tematyka praworządności była mi przez ostatnie lata bardzo bliska. Jesteśmy otwarci, także jeżeli chodzi o wiedzę ekspercką w tym zakresie. Natomiast oczywiście z poszanowaniem niezawisłości sędziów, ale myślę, że taka wymiana doświadczeń czy wiedzy pomiędzy instytucjami pozasądowymi, a instytucjami sądowymi też byłaby cenna. Być może właśnie takie konferencje, czyli spotkanie organizowane przez środowisko naukowe byłoby taką najlepszą, naturalną platformą. Oczywiście oprócz forum podkomisji. Bardzo dziękuję.</u>
          <u xml:id="u-1.47" who="#JoannaMazur">Druga sprawa co do tego instytucjonalnego wymiaru – jeżeli dobrze rozumiem  art. 74 w rozporządzeniu, są tam sytuacje, w których to musi być organ, który jest odpowiedzialny za ochronę danych osobowych. Czyli jeżeli chodzi o niektóre zastosowania wysokiego ryzyka to powinien to być właśnie ten sam organ, jeżeli ja dobrze rozumiem te przepisy.</u>
          <u xml:id="u-1.48" who="#JoannaMazur">I kolejny taki punkt styku, na który chciałabym zwrócić uwagę, bo on też pojawił się  w tej otwierającej prezentacji pana prezesa, czyli ten nasz art. 22 z RODO, którego jakiegoś rodzaju transformację znajdujemy również w akcie o sztucznej inteligencji co do możliwości wyjaśniania decyzji wydawanych z jej użyciem. I tutaj wydaje się, że ze względu na podobieństwo tak naprawdę tego problemu i tego prawa, które jest nadawane jednostkom, też warto by było, żeby w jakiś sposób połączyć te kwestie i te rozwiązania, które mają nam jako jednostkom to prawo gwarantować. I tak, to chyba z takich rzeczy, na które chciałam zwrócić uwagę, że to jest w przepisach to by było na tyle jeżeli chodzi o rolę właśnie organu odpowiedzialnego za ochronę danych osobowych.</u>
          <u xml:id="u-1.49" who="#JoannaMazur">Jeszcze ostatni element, na który również chciałam zwrócić uwagę, żeby może nam to nie umknęło to, że rozporządzenie przewiduje też dostęp do informacji na temat tych zastosowań, które są regulowane w rozporządzeniu dla organów, które ogólnie zajmują się ochroną praw podstawowych czy praw człowieka. Wydaje mi się istotne, żeby to się nie zgubiło, bo po prostu, nie wiem, czy to rzecznik praw obywatelskich, czy inne organy, które zajmują się takimi zagadnieniami, gdzie to AI może nam wchodzić, bo takie płaszczyzny w stylu nawet, nie wiem, rynek pracy, czyli różnego rodzaju dyskryminacja, że to również musi być zagwarantowane, jeżeli chodzi o uzgodnienie tego, jakie kto ma kompetencje, właśnie chociażby jeżeli chodzi o pozyskiwanie informacji. Bardzo dziękuję.</u>
          <u xml:id="u-1.50" who="#MirosławWróblewski">Chciałbym jeszcze krótko powiedzieć i poprosić może o uzupełnienie panią dyrektor Krasińską, żeby nie było, że cały czas tylko ja mówię. Jeżeli chodzi o pytanie pana Dawida Czerwa ze Stowarzyszenia Inspektorów Ochrony Danych Osobowych – rzeczywiście jeżeli chodzi o działania związane z inspektorami znowu powiem, że bardzo zintensyfikowałem współpracę z inspektorami uważając ich za niezwykle ważnych partnerów w takiej realnej ochronie danych osobowych. Zdajemy sobie sprawę z kwestii dotyczącej obciążenia inspektorów czy przekładania niektórych zadań administratorów ochrony danych osobowych zadaniami administratorów, innymi zadaniami także w zakresie sfery cyberbezpieczeństwa i nowych technologii. Także przed inspektorami stoi to ogromne zadanie, że oni muszą zwiększać swoje kompetencje, także w zakresie sztucznej inteligencji, a jest to ogromna rzesza osób. W tym zakresie spotykamy się  z kolejnymi stowarzyszeniami, 9 kwietnia mieliśmy duże webinarium, w którym wzięło udział ponad 600 osób – zakładam, że w dużej mierze byli to inspektorzy ochrony danych osobowych – gdzie rozmawialiśmy o tych problemach. W części środowiska jest może inne stanowisko, ale analizujemy to stanowisko, które wpłynęło do nas ostatnio także pisemnie. Natomiast RODO pod tym względem jest bardzo wyraźne. To znaczy stanowi o tym, że inspektor musi być niezależny, nie może wykonywać zadań administratora.  W tym zakresie to nie jest kwestia tylko i wyłącznie przepisów prawa, ale także działań ze strony organów nadzorczych. Nie ukrywam, że w tym zakresie były prowadzone także działania kontrolne i być może w decyzjach administracyjnych, zapewne prezesa urzędu, w najbliższym czasie znajdą one swój wyraz.</u>
          <u xml:id="u-1.51" who="#MirosławWróblewski">Nie wiem, czy pani dyrektor jeszcze zechce i jeżeli pan przewodniczący pozwoli, krótko uzupełni.</u>
          <u xml:id="u-1.52" who="#GrzegorzBernardNapieralski">Ponieważ już widziałem inną komisję, która stoi za drzwiami, muszę powiedzieć taką regułkę, że na tym wyczerpaliśmy porządek obrad podkomisji.</u>
          <u xml:id="u-1.53" who="#GrzegorzBernardNapieralski">Panie prezesie, jeszcze raz bardzo serdecznie chciałem podziękować panu, współpracownikom, wszystkim gościom, którzy dzisiaj zabrali głos. To dla nas bardzo cenne, szczególnie na początku tej drogi legislacyjnej, która nas czeka. I mam nadzieję na kolejne spotkania. Zamykam posiedzenie podkomisji. Dziękuję bardzo.</u>
        </div>
      </body>
    </text>
  </TEI>
</teiCorpus>