text_structure.xml 62.8 KB
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
  <xi:include href="PPC_header.xml" />
  <TEI>
    <xi:include href="header.xml" />
    <text>
      <body>
        <div xml:id="div-1">
          <u xml:id="u-1.0" who="#GrzegorzNapieralski">Stwierdzam kworum.</u>
          <u xml:id="u-1.1" who="#GrzegorzNapieralski">Witam serdecznie posłów członków podkomisji. Witam serdecznie pana Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji wraz ze współpracownikami. Witam przedstawicieli Urzędu Komunikacji Elektronicznej, Urzędu Ochrony Konkurencji i Konsumentów oraz Naukowej i Akademickiej Sieci Komputerowej. Witam ekspertów reprezentujących organizacje branżowe oraz środowiska naukowe – Polskie Towarzystwo Informatyczne, Polską Izbę Informatyki i Telekomunikacji, Związek Pracodawców Branży Internetowej IAB Polska, Związek Cyfrowa Polska, Konfederacja Lewiatan, Business Centre Club, Związek Przedsiębiorców i Pracodawców, Stowarzyszenie Przyjazna Gospodarka, stowarzyszenie ELKApw, a także Centrum Europejskie Uniwersytetu Warszawskiego. Witam bardzo serdecznie wszystkich państwa.</u>
          <u xml:id="u-1.2" who="#GrzegorzNapieralski">Porządek dzisiejszego posiedzenia przewiduje wysłuchanie informacji na temat perspektywy wdrożenia AI Act w związku z publikacją aktu w Dzienniku Urzędowym Unii Europejskiej.</u>
          <u xml:id="u-1.3" who="#GrzegorzNapieralski">Czy są uwagi do porządku obrad? Nie widzę.</u>
          <u xml:id="u-1.4" who="#GrzegorzNapieralski">Przystępujemy do realizacji porządku obrad. Bardzo proszę pana ministra Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji o przedstawienie informacji. Panie ministrze, bardzo proszę.</u>
          <u xml:id="u-1.5" who="#DariuszStanderski">Co zmieniło się od poprzedniego posiedzenia podkomisji, na którym udzielaliśmy informacji, to kwestia najbardziej pilnego elementu aktu o sztucznej inteligencji, czyli kwestia systemów zakazanych. Początkowo była interpretacja i czyniliśmy przygotowania do zaproponowania szybkiego, krótkiego projektu dotyczącego wyłącznie systemów zakazanych. Natomiast uzyskaliśmy interpretację z Komisji Europejskiej, że wejście w życie rozwiązań dotyczących systemów zakazanych w rozporządzeniu, czyli w tym terminie sześciu miesięcy, nie wymaga interwencji legislacyjnej po stronie państw członkowskich. To daje nam oddech, to daje nam perspektywę na to, żeby dobrze przygotować się do tego pierwszego etapu wdrożenia. Nie muszę państwu opowiadać o tym, w jakiej znaleźlibyśmy się sytuacji, gdy 1 sierpnia musielibyśmy odliczać sześć miesięcy na złożenie i przeprocedowanie trudnej ustawy, jeżeli byłoby to konieczne. Natomiast Komisja Europejska wskazuje tutaj na bezpośrednie stosowanie tego rozporządzenia czy to w zakresie listy systemów zakazanych, czy to w zakresie wyjątków obszarowych od procedury systemów zakazanych, co oznacza, że po wejściu tych przepisów w życie będziemy rozstrzygali ewentualne wątpliwości już na poziomie poszczególnych urzędów czy też właściwych sądów.</u>
          <u xml:id="u-1.6" who="#DariuszStanderski">W tym przypadku zwracam uwagę i jesteśmy w dialogu z Ministerstwem Spraw Wewnętrznych i Administracji w kontekście definicji bezpieczeństwa wewnętrznego jako czynnika wyłączającego stosowanie aktu o sztucznej inteligencji. Tutaj o tyle, o ile zgodnie z interpretacją Komisji Europejskiej nie będziemy mieli legislacyjnej dyskusji na ten temat, to z pewnością pojawią się dyskusje prawne związane z zakresem tego wyłączenia. Pozostałe wyłączenia dotyczące obronności czy badań podstawowych są tutaj bardziej klarowne, choć oczywiście pewnie będą również przedmiotem dyskusji. W związku z tym mówimy teraz o projekcie, na który mamy termin do lipca przyszłego roku. Zakres tego projektu powinien obejmować wskazanie lub powołanie nowego organu nadzoru, stworzenie mechanizmów prawnych umożliwiających wskazanie organu notyfikującego, stworzenie przepisów dotyczących procedury notyfikacji oraz dostosowywanie procedur w zakresie kar, które przewiduje akt o sztucznej inteligencji. To też jest pewien element, który został wskazany przez Komisję Europejską, że systemy zakazane, lista art. 5 wchodzi w życie po sześciu miesiącach, ale katalog kar wchodzi w życie po dwunastu miesiącach. Komisja Europejska jest tego świadoma i stąd te sześć miesięcy ma taki charakter czysto wdrożeniowy zanim pojawią się kary, które będą dostosowane do polskiego systemu.</u>
          <u xml:id="u-1.7" who="#DariuszStanderski">Następny projekt w dłuższej perspektywie obejmie procedurę administracyjną i obowiązki związane z pozostałymi systemami – przepisy proceduralne i nadzór nad piaskownicami regulacyjnymi w zakresie sztucznej inteligencji, mechanizmy skargowe obejmujące naruszenia pozostałych przepisów aktu. Szczególnie piaskownice regulacyjne będą tutaj przedmiotem wielu dyskusji przygotowawczych jeszcze przed uchwaleniem pierwszej ustawy wdrażającej akt o sztucznej inteligencji, bo mamy tutaj pełną świadomość, że będzie to pakiet rozwiązań na tyle złożonych, że musimy zacząć tę dyskusję nie po zakończeniu pierwszego etapu, ale jeszcze przed, bo inaczej nie wyjdziemy z tej dyskusji. Mamy tutaj doświadczenia od Komisji Nadzoru Finansowego, z którą jesteśmy w kontakcie, bo pamiętamy piaskownice regulacyjne w zakresie finansów w KNF. Mamy cały bagaż doświadczeń i w dialogu z KNF przygotowujemy się do wdrożeń w tym zakresie. To będzie również o tyle stanowiło wyzwanie dla nas wszystkich, że te piaskownice będą transgraniczne. Oznacza to, że będziemy musieli dostosowywać wyłączenia z prawa polskiego, ale również złapać te łączniki pomiędzy prawem polskim a prawem innych państw, które jeszcze nie zostało uspójnione z prawem unijnym.</u>
          <u xml:id="u-1.8" who="#DariuszStanderski">Założenia projektu ustawy wdrażającej akt o sztucznej inteligencji w tym pierwszym etapie, czyli do lipca 2025 r. są znane, przedstawiane podczas poprzedniego posiedzenia podkomisji. W tej chwili sytuacja przedstawia się następująco, że w związku z brakiem istnienia dzisiaj organu, który spełnia wymogi AI Act projekt ustawy, którego założenia dogrywamy przewiduje powołanie nowego organu nadzoru rynku dla modeli systemów sztucznej inteligencji komisji nadzoru. Pracami będzie kierował przewodniczący powoływany, wyjściowa propozycja jest taka, że przez prezesa Rady Ministrów, ale jest to kwestia szczegółowa w konsultacjach i uzgodnieniach. Chcielibyśmy, żeby skład komisji był na tyle różnorodny i elastyczny, żeby odpowiadał na wyzwania, jakie stawia akt o sztucznej inteligencji, czyli nie tylko przedstawiciel ministra właściwego do spraw informatyzacji, ale również przedstawiciel urzędów właściwych ze względu na przedmiot regulacji. Dodatkowo zadania nowego organu będą obejmowały nadzór nad rynkiem, realizację zadań pojedynczego punktu kontaktowego, współpracę z prezesem Urzędu Ochrony Danych Osobowych oraz innymi organami w zakresie zadań określonych w akcie o sztucznej inteligencji, współpracę z właściwymi organami i instytucjami Unii Europejskiej, a w przyszłości nadzór nad ustanowieniem i działaniem piaskownic regulacyjnych oraz działanie monitorujące w zakresie rozwoju sektora sztucznej inteligencji w Polsce.</u>
          <u xml:id="u-1.9" who="#DariuszStanderski">Mamy na uwadze specyfikę zagadnień oraz sprecyzowaną właściwość w przepisach wdrażanego aktu, dlatego planujemy wyznaczenie dodatkowego, właściwego organu krajowego w zakresie nadzoru rynku w obszarze właściwości ochrony danych osobowych w postaci prezesa Urzędu Ochrony Danych Osobowych. Przewidujemy również procedurę kontrolną w trybie art. 79 rozporządzenia. Natomiast, jeśli chodzi o organ notyfikujący, to tutaj przewidujemy, że sprawy związane z akredytacją powierzone zostaną Polskiemu Centrum Akredytacji w oparciu o istniejące dzisiaj przepisy, będą one jedynie rozbudowywane, ustawy o systemach oceny zgodności i nadzoru rynku. Uważamy, że obecny system notyfikacji w Polsce powinien pozostać spójny i w tym zakresie Polskie Centrum Akredytacji powinno być rozwijane, a nie zastępowane docelowo przez inne jednostki, właśnie ze względu na specjalizację PCA w tym zakresie.</u>
          <u xml:id="u-1.10" who="#DariuszStanderski">Po opublikowaniu aktu w Dzienniku Urzędowym Unii Europejskiej nawiązaliśmy również kontakt z Polskim Centrum Akredytacji w celu szczegółowej wymiany informacji. My mamy wiedzę w zakresie aktu o sztucznej inteligencji oraz tego, jakie wyzwania stawia przed nami sztuczna inteligencja, a PCA ma wiedzę, jak certyfikować i przeprowadzać postępowania akredytacyjne, więc te dwa poziomy wiedzy się ze sobą w tej chwili spotykają, tak żeby także po stronie PCA zaprojektować skuteczne rozwiązania.</u>
          <u xml:id="u-1.11" who="#DariuszStanderski">Dodatkowo w projekcie zawarte zostaną przepisy dotyczące administracyjnych kar pieniężnych w zakresie przypadków i wysokości kar od decyzji w sprawie nałożenia kar wydanych przez organ. Oczywiście zostanie przewidziana droga odwoławcza do sądu. W tym momencie wniosek o wpis do wykazu prac legislacyjnych w ministerstwie jest na poziomie prac legislacyjno-redakcyjnych, tak żeby w okolicach wejścia w życie tego projektu w podstawowym zakresie, czyli 1 sierpnia 2024 r. móc złożyć projekt do wykazu i rozpocząć uzgodnienia międzyresortowe, żeby jeszcze w tym roku wejść na poziom Rady Ministrów zgodnie z tym, co deklarujemy od początku sprawowania przeze mnie urzędu, że chcemy poświęcić ten rok na prace przed Sejmem, na konsultacje, uzgodnienia i prace wewnątrzrządowe, bo nie chcemy wdrożyć tego aktu jako pierwsi, chcemy go wdrożyć dobrze.</u>
          <u xml:id="u-1.12" who="#DariuszStanderski">Chociaż, jeżeli chodzi o poziom zaawansowania, to jesteśmy również bardzo wysoko, jeśli chodzi o państwa Unii Europejskiej. Ostatnio mieliśmy posiedzenia AI Board, podczas którego pierwszy raz spotkały się państwa członkowskie w zakresie aktu o sztucznej inteligencji. Wtedy było to spotkanie jeszcze nieformalne, bo wtedy to rozporządzenie jeszcze nie weszło w życie. Wiedzieliśmy, że poziom konkretyzacji, jeżeli chodzi o instytucje, procedury, zakresy w państwach członkowskich Unii Europejskiej jest jeszcze bardzo różny. Na szczęście jesteśmy raczej w czołówce niż na końcu stawki, więc tym bardziej się cieszę, że mamy ten czas, w którym jeszcze możemy spokojnie to wszystko przemyśleć.</u>
          <u xml:id="u-1.13" who="#DariuszStanderski">Szanowny panie przewodniczący, Wysoka Komisjo, chciałbym jeszcze poprosić o możliwość zabrania głosu przez panią dyrektorkę Pamelę Krzypkowską, która była obecna podczas posiedzenia AI Board w celu złożenia sprawozdania z tego, co wydarzyło się podczas tego posiedzenia.</u>
          <u xml:id="u-1.14" who="#GrzegorzNapieralski">Pani dyrektor, bardzo proszę.</u>
          <u xml:id="u-1.15" who="#BadańiInnowacjiMinisterstwaCyfryzacjiPamelaKrzypkowska">Jednym z także priorytetowych elementów są sandboxy, czyli właśnie piaskownice regulacyjne, które Komisja Europejska zaznaczyła, że są bardzo ważne oraz współpraca europejska w zakresie właśnie tej transgraniczności, ale także możliwości trenowania oraz dostępu dla mniejszych przedsiębiorców, a także dostępu dla start-upów. Bardzo ważnym elementem podniesionym przez Komisję jest to, że jest potrzeba wzmocnienia innowacyjności. Dużo mówi się o tym, że AI Act ma właśnie wzmocnić innowacyjność i wesprzeć Unię Europejską w tym, żeby wdrażać kolejne rozwiązania AI zgodnie z tymi zasadami godnej zaufania sztucznej inteligencji.</u>
          <u xml:id="u-1.16" who="#BadańiInnowacjiMinisterstwaCyfryzacjiPamelaKrzypkowska">Został także poruszony element scientific panelu, czyli panelu naukowego, który zgodnie z aktem jest obowiązkowy do powołania. Komisja Europejska zaznaczyła, że na początku zakłada, że z każdego państwa członkowskiego potencjalnie będzie maksymalnie od jednego do trzech ekspertów, osób zajmujących się nauką, a także bardzo ważne – podkreśliła ważność interdyscyplinarności tych ekspertów. Oczywiście będziemy tutaj w ciągłych dyskusjach z Komisją Europejską, żeby skupić się na tym, żeby faktycznie mieć dobry balans, jeżeli chodzi o to czym zajmują się ci naukowcy, te osoby naukowe, żeby faktycznie były to i osoby techniczne, i osoby zajmujące się przemysłem kreatywnym, prawem. Jesteśmy gotowi na ścisłą współpracę z Komisją Europejską w tym zakresie. Dziękuję.</u>
          <u xml:id="u-1.17" who="#GrzegorzNapieralski">Jeszcze raz dziękuję, panie ministrze.</u>
          <u xml:id="u-1.18" who="#GrzegorzNapieralski">Otwieram dyskusję.</u>
          <u xml:id="u-1.19" who="#GrzegorzNapieralski">Jeżeli państwo pozwolicie, to na samym początku powiem trzy takie rzeczy. Po pierwsze, odniosę się do pani dyrektor i do tego, co wydarzyło się na tym spotkaniu, ale też do takiej współpracy w ramach państw Unii Europejskiej. Pan minister powiedział, że jesteśmy w czołówce i to bardzo cieszy, ale też, żeby nie wypaść z tej czołówki, to powinniśmy przyglądać się, jak to wygląda w innych krajach i nie wstydzić się tego, że niektórym idzie trochę lepiej od nas. Gdyby była taka możliwość współpracy, widzielibyście taką możliwość, że członkowie naszej podkomisji mogliby być… My będziemy to przenosili na poziom parlamentarny. Materia dotycząca sztucznej inteligencji jest skomplikowana, bo jest to coś nowego, coś, co dopiero kształtujemy. Im więcej takiej wiedzy, tym łatwiejszy będzie później proces legislacyjny w naszym parlamencie, ale też nasza wiedza, bo mówiąc szczerze, to my się dopiero tego uczymy. Prosiłbym, gdyby można było mieć to na uwadze.</u>
          <u xml:id="u-1.20" who="#GrzegorzNapieralski">Druga kwestia, tu bardziej pytanie do pana ministra, czyli kwestia dotycząca tego organu. Moim zdaniem, jeżeli będziemy budować ten organ, to moim zdaniem powinien być on tak zbudowany, że osoba stojąca na czele tego organu powinna być silna politycznie, mieć jakieś możliwości działania. Nie powołajmy samego urzędu dla powołania urzędu, bo to jest łatwe, a potem okazuje się, że albo jest za mały budżet, albo zbyt mała pozycja polityczna, albo zbyt małe możliwości prawne takiego organu. Choćby to ostatnie spotkanie, o którym wspominała pani dyrektor pokazuje bardzo prosto, że będziemy poruszać się w tak różnych sektorach i podejmować tak wiele wątków, że ta osoba będzie musiała faktycznie złapać to w jedną całość. Jest system ochrony zdrowia i są to bardzo duże możliwości, ale także duże zagrożenia i niebezpieczeństwo. Jest też kwestia administracji publicznej. Można byłoby tak wymieniać i wymieniać. Moje pytanie, jak to by wyglądało w sensie budżetowym i w sensie właśnie takiego usytuowania. Takie organy powstawały na przestrzeni ostatnich lat, bo budowaliśmy i rzecznika praw konsumenta, i budowaliśmy od nowa Urząd Ochrony Konkurencji i Konsumentów, później budowaliśmy Urząd Komunikacji Elektronicznej, więc mamy już jakieś doświadczenie i warto byłoby to wykorzystać, żeby jak już coś powołamy i zbudujemy ponad podziałami politycznymi, to żeby było naprawdę duże umocowanie polityczne, żeby ktoś miał siłę sprawczą. Mówię już tak bardzo szczegółowo i technicznie, ale taki jest mój pogląd na tę sprawę. To jest takie trochę pytanie, a trochę głos w dyskusji.</u>
          <u xml:id="u-1.21" who="#GrzegorzNapieralski">Ostatnia sprawa, o której rozmawiałem już wcześniej z panem ministrem i myślę, że warto przysiąść do tego od razu, już na samym początku, żebyśmy porozmawiali o kwestiach dotyczących wymiaru sprawiedliwości, dotyczących tak naprawdę spraw, które trafią, kiedy zaczniemy już używać sztucznej inteligencji. Na pewno wtedy pojawią się spory. Pamiętam jak wiele lat temu na naszej Komisji dyskutowaliśmy o wydzieleniu specjalnego sądu do ochrony wartości intelektualnych i tego wszystkiego, co było w tym zakresie. Panie ministrze, mój postulat i wniosek, gdybyśmy mogli usiąść z Ministerstwem Sprawiedliwości po przerwie wakacyjnej do takiej poważnej debaty, dyskusji, jak do tego się przygotować. Być może trzeba już kształcić sędziów, którzy byliby bardzo specjalistycznie przygotowani, z taką specjalistyczną wiedzą na ten temat. Ale to jest proces. Tak jak dzisiaj dyskutujemy na Komisji Zdrowia o psychiatrach, którzy mieliby leczyć dzieci, młodzież, bo jest niedobór, to ten proces kształcenia to jest 5 lat. Nie wiem jak to dokładnie wygląda w wymiarze sprawiedliwości, żeby zostać sędzią. Natomiast to jest proces. Pytanie, czy byłoby to jedno miejsce czy więcej? To jest taka moja sugestia do takiej naszej współpracy. Bardzo dziękuję.</u>
          <u xml:id="u-1.22" who="#GrzegorzNapieralski">Jeżeli później będą chętni, to oddam głos. Panie ministrze, bardzo proszę.</u>
          <u xml:id="u-1.23" who="#DariuszStanderski">Jeżeli chodzi o informacje, jak idzie innym państwom Unii Europejskiej, to być może jest to dobry punkt do porządku obrad jednego z przyszłych posiedzeń podkomisji, żeby np. raz na kwartał poza innymi tematami robić takie sprawozdanie, jak to wygląda w innych państwach. Jestem pewien, że w następnych kwartałach będzie bardzo duży ruch w tym zakresie. O ile dzisiaj rozmawialibyśmy przede wszystkim o Hiszpanii i o tym, że ten przykład hiszpański też nie jest tak zaawansowany, jak moglibyśmy sobie to wyobrazić, ponieważ podczas jednego z posiedzeń w Brukseli spotkaliśmy szefa urzędu do spraw sztucznej inteligencji w Hiszpanii, który okazał się na ten dzień jedynym pracownikiem tego urzędu, ponieważ urząd istnieje, ale wówczas jeszcze nie przeprowadził rekrutacji na pracowników, więc był jednoosobowy. W związku z tym to, co czasem widzimy w różnych relacjach prasowych czy krótkich sprawozdaniach, to warto na ten temat przeprowadzić na podkomisji dłuższą dyskusję i bardziej wgryźć się w temat. My tutaj oferujemy pełną informację, którą będziemy zbierać u naszych kolegów i koleżanek z innych państw, więc jest oczywiście tego pełne poparcie.</u>
          <u xml:id="u-1.24" who="#DariuszStanderski">Jeżeli chodzi o komisję nadzoru nad sztuczną inteligencją i siłę sprawczą, to moim zdaniem kwestia siły sprawczej będzie wynikała przede wszystkim ze sprawności procedur oraz elastyczności działania tego organu, ponieważ samo rozporządzenie aktu o sztucznej inteligencji daje duże możliwości czy to w zakresie certyfikowania, czyli w ogóle dopuszczania do obrotu, czy to w zakresie kar administracyjnych. Najważniejsze w uchwyceniu tych kompetencji będzie właśnie wprowadzenie takich procedur, żeby, powiem potocznie, urząd nie zapchał się w pierwszych miesiącach funkcjonowania. To będzie tutaj kluczowe, bo widzimy też często, że w przypadku istniejących dzisiaj urzędów nowe kompetencje nie zawsze idą w parze ze wzrostem sprawności czy pozycji. Dlatego też wśród proponowanych instytucji czy istniejących urzędów w konsultacjach potwierdzono, taka też była nasza intuicja, poparta później analizami i badaniami, że dodawanie kompetencji do innych instytucji nie spowodowałoby, że zwiększyłyby one swoją siłę sprawczą, tylko spowodowałoby to też pewne problemy proceduralne, administracyjne. Wyobraźmy, gdybyśmy np. dali Urzędowi Komunikacji Elektronicznej kompetencję z zakresu aktu o sztucznej inteligencji, to w jednym momencie dostałby kompetencje z DSA, słyszymy, że dostałby kompetencje z praw autorskich i w tym samym momencie jeszcze kompetencje w zakresie aktu o sztucznej inteligencji. To jest najlepszy przykład na to, że ciągłe rozszerzanie kompetencji nie idzie w parze z tym, że zwiększa się siła sprawcza, tylko zaczynamy pytać o etaty, o finansowanie czy też bardzo prozaicznie o to, że już nie ma miejsca w budynku na to, żeby otwierać kolejną jednostkę. Stąd też będzie kluczowe stworzenie urzędu niezbyt rozległego, niezbyt dużego, ale sprawnego i elastycznego. Dlatego też, jeśli sobie wyobrazimy w przyszłości, a tak się z pewnością stanie, że wraz z rozwojem systemu sztucznej inteligencji, który w kolejnych odsłonach widzimy teraz w Stanach Zjednoczonych, będą potrzebne kolejne kompetencje tego organu. Musimy tak zaplanować te podstawowe kompetencje, żeby dodawanie kolejnych nie powodowało niszczenia istniejącej struktury. Dlatego w moim przekonaniu będzie to największe wyzwanie.</u>
          <u xml:id="u-1.25" who="#DariuszStanderski">Natomiast, jeżeli chodzi o sąd właściwy do spraw związanych z obszarem sztucznej inteligencji, to w tym przypadku my tę dyskusję przeprowadzimy o wiele wcześniej, bo przeprowadzimy ją po wakacjach, kiedy będziemy składać ustawę wdrażającą akt o usługach cyfrowych, który w tej chwili jest w ponownych uzgodnieniach i konsultacjach. Ponieważ przewidujemy, proponujemy procedurę sądową dla przypadków treści niezgodnych z prawem, które w coraz większej części będą generowane za pomocą systemów sztucznej inteligencji lub w ten czy inny sposób wspierane przez systemy sztucznej inteligencji. Oznacza to, że po wejściu w życie ustawy wdrażającej DSA w przypadku jej kształtu taki, jaki jest obecnie, sądy już teraz będą musiały rozstrzygać kwestie działania systemów sztucznej inteligencji, kwestie deep fake’ów i innych tego typu rozwiązań. To będzie przed wejściem w życie ustawy wdrażającej akt o sztucznej inteligencji, czyli ta dyskusja jest przed nami dużo szybciej niż byśmy to zakładali.</u>
          <u xml:id="u-1.26" who="#DariuszStanderski">W mojej ocenie Ministerstwo Sprawiedliwości bardzo słusznie zgłasza konieczność wzmocnienia kadrowego sądów, ponieważ to jest zupełnie nowy obszar orzekania. Po wejściu w życie z dnia na dzień sądom przybędzie sporo spraw. Po wejściu ustawy wdrażającej akt o sztucznej inteligencji będziemy mieli kolejną działkę. Jesteśmy tutaj jakbyśmy odkrywali nowe obszary, a nie zmieniali zakres działania sądów. To oznacza, że sędzia, który dzisiaj orzeka, nie przesiądzie się z biurka na biurko czy nie zmieni rodzajów spraw, tylko dostanie tych spraw znacznie więcej, dlatego tym bardziej przestanie rozpatrywać te sprawy w miarę terminowo, jeśli dzisiaj to robi terminowo.  Dlatego to jest dyskusja, która jest przed nami o wiele szybciej i dlatego jesteśmy w stałym kontakcie z Ministerstwem Sprawiedliwości. Często rozmawiam o tym z ministrem Bodnarem, dla którego sprawy cyfrowe również są bardzo ważne, o czym często mówi, dlatego tutaj współpraca układa się dobrze. Dlatego też będziemy wracać z konkretnymi rozwiązaniami, jeżeli chodzi o ten akt, a jeżeli chodzi o DSA, to już niedługo będziemy po prostu rozpatrywać ten projekt.</u>
          <u xml:id="u-1.27" who="#GrzegorzNapieralski">Bardzo ucieszyła mnie ta ostatnia deklaracja. Jeżeli przyspieszymy, to może być problem.</u>
          <u xml:id="u-1.28" who="#GrzegorzNapieralski">Jeżeli byłaby taka wola ministerstwa, jeżeli chodzi o ten organ, to, jeżeli byłaby taka możliwość, to chętnie wzięlibyśmy udział w takiej dyskusji, dlatego że jak złożymy procedury powoływania kogoś, kto będzie na czele takiego organu i dobrze go tam umocujemy, to naprawdę będzie miał siłę przebicia. Szczególnie jak pan minister mówi, że dokładanie kolejnych kompetencji – to się stanie. To wiemy z ostatnich lat i doświadczeń okresu transformacji, jeżeli taka postać będzie silnie politycznie umocowana, to wtedy też będzie mogła więcej zrobić. Jeżeli będzie to jakiś kadłubkowy organ powołany tylko, żeby wypełnić… Nie chcę nikogo oskarżyć i przepraszam za ten „kadłubkowy”, ale, jeżeli to będzie po prostu taki organ powołany, bo powołany jako kolejny urząd centralny, to obawiam się, że tutaj po prostu mógłby być problem. Czym ta postać – ten mężczyzna lub ta kobieta będzie silniej umocowana z kompetencjami do tego, żeby rozmawiać, często z silnymi ministrami, bo będzie musiała zderzyć się z Ministerstwem Zdrowia, Ministerstwem Finansów, ale również służbami, które odpowiadają za nasze bezpieczeństwo, to jednak musi być to ktoś, kto będzie silnie umocowany politycznie. Takie jest moje odczucie. Gdyby była taka możliwość, to panie ministrze, chętnie.</u>
          <u xml:id="u-1.29" who="#GrzegorzNapieralski">Przepraszam, bo rozgadałem się. Oddaję państwu głos. Bardzo proszę, po kolei – był pan prezes Kanownik, a później pani.</u>
          <u xml:id="u-1.30" who="#MichałKanownik">Panie ministrze, dziękujemy za tę informację. Oczywiście trudno nie zgodzić się, nie pochwalić tego bardzo ambitnego planu wdrożenia AI Actu i poszczególnych elementów. Tak naprawdę możemy tylko trzymać kciuki, żeby udało się wdrożyć sprawnie, zgodnie z założonym planem i przygotować dokumenty. Myślę, że on jest bardzo ambitny, patrząc na realia prac legislacyjnych w Polsce, ale trzymamy kciuki i chętnie pewnie będziemy pomagali.</u>
          <u xml:id="u-1.31" who="#MichałKanownik">Trochę odnosząc się do tej dyskusji między panem przewodniczącym a panem ministrem odnośnie mocy sprawczej tego organu, myślę, że prawda leży gdzieś pośrodku między panami. Owszem, mocna pozycja polityczna tego organu będzie bardzo istotna, ale myślę, że jeszcze ważniejsze będą zasoby kadrowe i moc merytoryczna tych zasobów. Żeby one były mocne, niestety budżet tego organu musi być odpowiedni, więc pewnie do dyskusji trzeba byłoby zaprosić ministra finansów, a ta dyskusja pewnie nie będzie łatwa. Trzymam kciuki, żeby ten organ nie tyle był czy kadłubkowy, czy rozbudowany, taki czy inny, ale żeby był odpowiednio wyposażony w budżet, który zapewni możliwości ściągnięcia z rynku odpowiednich osób, które będą merytorycznie przygotowane do tej funkcji. Z całą pewnością nie będzie to łatwe, ale myślę, że bez tego w ogóle nie da się myśleć o sprawnie i efektywnie działającym organie nadzoru w tym zakresie.</u>
          <u xml:id="u-1.32" who="#MichałKanownik">Drugą kwestią, o której mówiła pani dyrektor i pan minister, czyli ta koordynacja, te działania wdrożeniowe u nas vs w reszcie krajów w Europie. To jest chyba jeden z kluczowych elementów, o których dzisiaj musimy mówić. Kluczem do sukcesu dla całej Europy we wdrożeniu AI Actu jest to, żeby ta implementacja była jak najbardziej zsynchronizowana w poszczególnych krajach, żeby było jak najmniej różnic w tym zakresie, choćby jeśli chodzi o organ nadzoru, żeby w każdym kraju nie było innej formuły nadzoru nad tym rynkiem, bo firmy faktycznie dostaną kociokwiku, kiedy w każdym przypadku będą musiały robić inną procedurę w tym zakresie.</u>
          <u xml:id="u-1.33" who="#MichałKanownik">Nie ukrywam, że tu mam lekki dysonans, bo z jednej strony pan minister przedstawia bardzo ambitne plany polskiego rządu implementacji tego aktu do polskiego porządku prawnego. Widzimy bardzo racjonalnie, krok po kroku pewien schemat funkcjonowania i trudno z nim dyskutować i nie zgadzać się. Jak wspomniał pan minister – jesteśmy jednym z liderów w Europie w tym zakresie. Z drugiej strony pani dyrektor odwołuje się do tych spotkań Komisji, podkomisji, podkomitetów w ramach Unii Europejskiej, czyli niekończącej się dyskusji, a urobku za bardzo z tego nie będzie. Jeżeli w jakiś sposób państwo zamierzacie skoordynować te ułożone działania polskiego rządu z tym, co dzieje się w Europie, żeby faktycznie nie powstał miszmasz implementacyjny na poziomie europejskim. Być może polska prezydencja będzie dobrą okazją, żeby trochę narzucić pewien rytm tej pracy koordynacyjnej pomiędzy krajami. Apelowałbym o to, żeby uniknąć fragmentaryczności, jeśli chodzi o współpracę z poszczególnymi krajami przynajmniej w naszym regionie – w Europie Środkowo-Wschodniej, żebyśmy spróbowali to skoordynować i zrobić to podobnie na poziomie regionalnym czy bilateralnym.</u>
          <u xml:id="u-1.34" who="#MichałKanownik">Mówię, co do całego planu i schematu to trudno dyskutować i nie zgodzić się z nim. Chciałbym dorzucić ministerstwu tylko jedną uwagę, bo być może warto zainteresować się tym – oprócz tej akredytacji, o której mówił pan minister, w Europie trwają prace nad standardami AI. Prowadzi je CENELEC i PKN jest tam członkiem i uczulić ministerstwo, żeby PKN posiadał odpowiednie zasoby kompetencyjne, wiedzowe, żebyśmy nie przegapili tego elementu, żeby rynek nie został obudzony już post factum. Wiem, że do 9 września jest termin, chyba że PKN wrócił do CENELEC ze wsadem w tym zakresie. Uczulałbym, że być może warto przeprowadzić dialog z rynkiem, żeby głos polskiego regulatora w tym zakresie był bardzo klarowny i spójny z sytuacją na rynku. Dziękuję bardzo.</u>
          <u xml:id="u-1.35" who="#GrzegorzNapieralski">Zrobimy teraz trzy głosy. Pani Joanno, bardzo proszę. Później pan i wrócimy do ministra i będzie kolej na następnych.</u>
          <u xml:id="u-1.36" who="#JoannaKarczewska">Na poprzednich posiedzeniach już mówiłam, że są błędy w tłumaczeniu. Od 12 lipca od art. 1 sprawdzam ponownie wersję polską z wersją angielską. Błędów jest za dużo. Są to dość kluczowe błędy. Mogę podać kilka, np. z „sex life” zrobiono „seksualność”, z „automation bias” zrobiono „błąd automatyzacji” zamiast „stronniczość automatyzacji”, „vulnerability” zostały przetłumaczone jako „słabe punkty”, a powinny być „podatności”, „value adding services”, czyli „usługi o wartości dodanej” są de facto „usługami dodającymi wartość”, a w wersji polskiej są podane jako „usługi o wartości dodanej”, czyli w wersji polskiej „adding” zamieniono na „added”. Dwa dni temu w art. 27 zauważyłam, że zgubiono słowo „nie”, czyli jest to dość istotna kwestia. Natomiast mówię, ja jestem dopiero przy art. 29 i codziennie sprawdzam  2-3 artykuły. Jest totalny miszmasz, jeżeli chodzi o pojęcie „state of the art”, jest przetłumaczone na cztery różne sposoby. To samo dotyczy „training” jako „szkolenia” lub „wyszkolenia”.</u>
          <u xml:id="u-1.37" who="#JoannaKarczewska">Jeżeli, tak jak wspomniał pan przewodniczący, to później trafi do sądu, to my –  obywatele możemy mieć naprawdę poważne kłopoty, jeżeli zwrócimy się z jakąś sprawą.</u>
          <u xml:id="u-1.38" who="#JoannaKarczewska">Rzecz, której nie jestem w stanie podarować i nie mogę odpuścić, to jest zrównanie pojęcia „governance” z pojęciem „management”. To jest absolutnie niedopuszczalne. Sprawdzałam inne wersje językowe, Hiszpanie rozróżniają, Francuzi rozróżniają, natomiast u nas nastąpiło zrównanie. W jednym miejscu jest wręcz zrównanie „governance and management”, a u nas jest tylko „zarządzanie”. To jest niedopuszczalne. Jeżeli państwo nie wiecie, co to jest governance, to ja pokażę. Tu u góry mamy governance, a na dole mamy management. Governance to jest wysoki poziom. Są odpowiednie procesy z tym związane. Management jest u dołu.</u>
          <u xml:id="u-1.39" who="#JoannaKarczewska">Tym bardziej, że w rozporządzeniu kilka razy są wymienione instytucje finansowe i są specjalne zapisy dotyczące instytucji finansowych. Akurat instytucje finansowe w Polsce wiedzą, jaka jest różnica. Chociażby z prostego faktu, że jest tzw. cooper governance, czyli ład korporacyjny, to pojęcie jest znane. Natomiast tutaj, ja już to pojęcie sygnalizowałam, jak się ukazała pierwsza wersja, nie można tego zrównywać. To będzie się niesamowicie mściło. Jeżeli państwo nie wiecie, co to jest, to polecam Metodykę COBIT, powszechnie stosowaną w instytucjach bankowych. Tak się składa, że jest tutaj również moje nazwisko, więc wiem, o czym mówię, uczestniczyłam w opracowaniu. Tym bardziej nie mogę wam odpuścić tego, że zrównaliście governance z management. Governance jest bardzo ważny w kontekście sztucznej inteligencji, a tutaj tak jakby to nie miało znaczenia.</u>
          <u xml:id="u-1.40" who="#JoannaKarczewska">Sprawdzam bardzo metodycznie, jestem dopiero przy art. 29. Kto wie, jakie błędy się jeszcze znajdą? Dlatego nie jestem nawet w stanie wam tego wysłać, bo tego jest za dużo.</u>
          <u xml:id="u-1.41" who="#JoannaKarczewska">Tam są jeszcze rzeczy, które mnie niepokoją, niektóre sformułowania, ale to jest do uzgodnienia. Natomiast błędy w tłumaczeniu będą się niebotycznie mściły, szczególnie jeżeli trafi to do wymiaru sprawiedliwości i sędziowie będą sięgać do wersji oryginalnej czy też będą bazować na wersji polskiej, w której zgubiono w art. 27 słowo „nie” i to właśnie w kontekście służb. Dziękuję.</u>
          <u xml:id="u-1.42" who="#GrzegorzNapieralski">Proszę bardzo, oddaję głos.</u>
          <u xml:id="u-1.43" who="#MichałNowakowski">Panie przewodniczący, dziękuję za udzielenie głosu. Panie ministrze, pani dyrektor, dziękuję za pokazanie pewnego harmonogramu, który oczywiście musi być spójny z AI Act.  Natomiast chciałbym zwrócić uwagę na kilka kwestii, może nie w każdym aspekcie będę się do końca zgadzał.</u>
          <u xml:id="u-1.44" who="#MichałNowakowski">Moim zdaniem dwie najważniejsze rzeczy to jest kwestia zapewnienia odpowiednich zasobów. Pan minister mówił o sile sprawczej. Ja uważam, że siłą sprawczą są ludzie, którzy będą stali i wspierali osoby, które będą wchodziły w skład tej Komisji. Kwestia tej siły sprawczej i tych odpowiednich zasobów ma charakter tak naprawdę bardzo zróżnicowany. Z jednej strony są to środki, które takiemu organowi należy przyznać. Moim zdaniem bardzo ważnym wątkiem, zapewne tak będzie, bo w każdej ustawie tak powinno być, jest kwestia przyznania odpowiedniego poziomu tych środków, to znaczy tak, aby być może to było rozpisane na kolejne lata razem z rozwojem samego organu czy wraz z rozwojem przedmiotu tej regulacji. Z pewnością pojawią się nowe potrzeby ze strony tego organu również np. w kontekście zatrudnienia ekspertów. Tak naprawdę przy okazji każdego posiedzenia podkreślam, że specyfika szeroko rozumianego IT, już nie tylko systemów sztucznej inteligencji, wiąże się z koniecznością posiadania bardzo specyficznych, trudno dostępnych kompetencji. Mówię trudno dostępnych chociażby ze względów finansowych. To znaczy, że eksperci najzwyczajniej w świecie są po prostu drodzy. A takowi eksperci są potrzebni szczególnie organowi, który ma mieć jakieś uprawnienia do nakładania kar i uprzednio do przeprowadzenia określonych kontroli. Teraz zwróciłbym na to szczególną uwagę chociażby ze względu, że przecież niedługo zostaniemy objęci procedurą nadmiernego deficytu, co z pewnością będzie wpływało na kwestie zasobności czy możliwości przyznawania określonych środków, ale, żeby to nie umknęło w trakcie tworzenia samych przepisów.</u>
          <u xml:id="u-1.45" who="#MichałNowakowski">Kolejny aspekt, który pośrednio związany jest z kwestią samych praktyk zakazanych i samego organu dotyczy tego, co powiedziałbym, że jest jedną z najgorszych rzeczy w biznesie, a mianowicie kwestia pewnej niepewności. Teraz przychylę się do zdania co do samego AI Act, jego tłumaczenia, gdzie rzeczywiście pojawia się nam całkiem sporo wątpliwości co do różnych definicji, co do różnych pojęć, tego, w jaki sposób interpretować te przepisy. Te przepisy AI Act nie są najlepsze. Broń Boże nie jest to zarzut do ministerstwa, tylko jest to bardziej zarzut na poziomie unijnym. W związku z tym, że biznes, adresaci tego AI Actu będą mieli dużo wyzwań w kontekście interpretacji tych przepisów, istotne jest to, że organ, który zostanie powołany miał odpowiednie uprawnienia w zakresie określonych wytycznych, rekomendacji, być może nawet jakichś twardych interpretacji. Zwróćcie państwo uwagę, że np. Komisja Nadzoru Finansowego zgodnie z ustawą o nadzorze nad rynkiem finansowym ma uprawnienia np. do wydawania wiążących interpretacji. O ile dobrze pamiętam jest to art. 11b. Być może jest to pewne źródło inspiracji na przyszłość w kontekście tego organu. To jest coś, na co należałoby zwrócić uwagę. Pewnie da się przepisami ustawy zobowiązać wszystkie te organy, które mają tworzyć ten ekosystem AI do tego, żeby w miarę sprawnie, w miarę szybko wydały też stosowne wytyczne czy wyjaśnienia co do samego AI Act. Jeżeli chcemy pozostać liderem w obszarze wykorzystania systemu sztucznej inteligencji, to tak naprawdę musimy stworzyć środowisko do tego, żeby ta innowacyjność się rozwijała.</u>
          <u xml:id="u-1.46" who="#MichałNowakowski">Tu dochodzimy do trzeciego wątku, a są cztery. Nie będę zabierał bardzo dużo czasu. Pan minister zwrócił uwagę na terminy, które wynikają z samego AI Actu, czyli tak naprawdę konieczność powołania tego sandboxu do 2 sierpnia 2026 r. Ale ja chciałbym zadać takie otwarte pytanie, żebyśmy się nad tym zastanowili, dlaczego nie moglibyśmy zrobić tego wcześniej? Znam odpowiedź na to pytanie – to są ograniczenia również budżetowe, to są ograniczenia infrastrukturalne. Żeby państwo mieli świadomość – kwestia stworzenia sandboxu, to nie jest tylko i wyłącznie kwestia stworzenia polityk, procedur i regulaminów, np. wykorzystując to, co zrobił KNF, ale uwaga – tutaj zastrzeżenie w kontekście sandboxa wirtualnego, a nie sandboxa regulacyjnego, który jest jednak poziomem wyżej, tylko to jest też kwestia stworzenia odpowiedniej infrastruktury i pozyskania odpowiednich talentów, które tak naprawdę będą w stanie weryfikować te wszystkie kwestie. Z drugiej strony sam cel zawarty w art. 57 AI Actu jest taki, że rzeczywiście kwestie rozwoju biznesu AI w szczególności w odniesieniu do MŚP, które w jakimś stopniu będą pokrzywdzone wejściem w życie tych przepisów, powinien stać się takim priorytetem.</u>
          <u xml:id="u-1.47" who="#MichałNowakowski">Chciałbym jeszcze zwrócić uwagę na to, żebyśmy nie stracili tego z oczu, że środki wspierania innowacyjności zawarte w AI Act to nie jest tylko sandbox, tylko to są również inne środki, które podejmujemy i oczywiście jednym z tych elementów jest też kwestia finansowania. Nie wiem czy państwo mieli okazję się z tym zapoznać, ale pojawiają się też dość krytyczne artykuły np. na temat wysokości funduszu, który ma zostać powołany. Zwracam tylko na to uwagę, w żaden sposób nie odnosząc się do tej kwestii, ale one zwracają uwagę, że są to środki niedostateczne w kontekście celów, które chcemy osiągnąć. Być może trzeba to zrewidować, być może trzeba szukać też innych instrumentów, innych rozwiązań, które pozwolą nam na zapewnienie tej innowacyjności. Broń Boże proszę nie traktować tego jako zarzutu, tylko bardziej jako pokazanie pewnego szerszego kontekstu.</u>
          <u xml:id="u-1.48" who="#MichałNowakowski">Ostatnim takim elementem, na który chciałbym zwrócić uwagę, przyszedł mi do głowy jeszcze jeden i króciutko o nim powiem, to jest kwestia komunikacji z obywatelami. Obywatele też powinni mieć świadomość tego, co się dzieje w tym obszarze, tym bardziej, jak państwo zauważają – pojawia się coraz więcej problemów z różnymi platformami, które wykorzystują szeroko rozumiane systemy sztucznej inteligencji. W związku z tym obywatele powinni mieć tego świadomość. Wpisuje się to również w to, co powiedział pan minister, czyli kwestia wprowadzenia pewnego systemu czy procedur skargowości w odniesieniu do  AI Actu, ale można również podejść do tego zdecydowanie szerzej. Być może jest potrzebna tutaj współpraca z Urzędem Konkurencji i Konsumentów. Nie wiem, rzucam jakąś propozycję.</u>
          <u xml:id="u-1.49" who="#MichałNowakowski">Jest jeszcze jeden, piąty i ostatni już punkt, który wydaje mi się dosyć istotny. To jest kwestia odpowiedzialności za systemy sztucznej inteligencji, ale właśnie z punktu widzenia przepisów prawa. Jak wiemy, albo i nie wiemy, obecnie są tworzone przepisy odnoszące się do kwestii tej odpowiedzialności. Natomiast nie do końca mamy też świadomość, w którym kierunku pójdą te przepisy i kiedy te przepisy zostaną opracowane. Być może trzeba nieco wyprzedzić działania ze strony prawodawcy unijnego, ponieważ rzeczywiście z punktu widzenia biznesu pojawia się bardzo wiele wątpliwości co do tego: kto, za co, w jakich sytuacjach de facto odpowiada. Jeżeli tworzymy ten ekosystem innowacyjności i chcemy go stworzyć, chcemy pozostać tym liderem, chociaż ja mam trochę inne zdanie na ten temat, że do pozycji lidera jeszcze nam troszeczkę brakuje, to musimy uwzględniać bardzo wiele wątków. Kwestia wyjaśnienia tych wątpliwości również jest tutaj bardzo istotna.</u>
          <u xml:id="u-1.50" who="#MichałNowakowski">Jeszcze raz bardzo dziękuję. Bardzo dziękuję za aktywność i za komunikowanie, za dużą przejrzystość w zakresie podejmowanych działań. Dziękuję uprzejmie.</u>
          <u xml:id="u-1.51" who="#GrzegorzNapieralski">Odniosę się do jednego punktu, wspierając go, bo bardzo mnie to zaciekawiło i nawet w prezydium zaczęliśmy o tym rozmawiać, dotyczącego komunikacji między nami, nazwę to tak bardzo ogólnie, a dzisiaj między Polkami i Polakami. Nawet jak oglądaliśmy tutaj badania pani prof. Kolasy, która robiła badania z lekarzami i pacjentami, dotyczące sztucznej inteligencji, to tam wynikał dosyć duży komponent strachu wśród i lekarzy, i ludzi, dotyczący właśnie użycia sztucznej inteligencji. Może warto byłoby poprowadzić w tej sprawie taką szerszą dyskusję na temat strategii komunikacji. Po pierwsze, mamy dzisiaj pana ministra, czyli pana ministra Standerskiego, który to koordynuje i jest umocowany w rządzie. Jest podkomisja, która odbywa raczej środowiskowe dyskusje, które, może poza naszymi mediami społecznościowymi, nie rozlewają się za bardzo, ale jako państwo mamy wiele takich narzędzi, za pomocą których możemy komunikować i pokazywać. Nie mówię o przepisach prawnych, bo my możemy coś powiedzieć w TVP Info albo w TVN24, ale tę komunikację można zrobić w przyjazny sposób też w telewizjach śniadaniowych. Można budować to np. w serialach, które są w telewizji i pokazywać…</u>
          <u xml:id="u-1.52" who="#GrzegorzNapieralski">Bardzo dziękuję. Jeszcze jeden głos i oddam głos panu ministrowi. Bardzo proszę i proszę się przedstawić.</u>
          <u xml:id="u-1.53" who="#MarcinKrasuski">Bardzo dziękuję za możliwość zabrania głosu i za przedstawienie planów rządu co do implementacji AI Actu. Nie chcę się powtarzać, ale z punktu widzenia biznesu kluczowe jest to, o czym mówił tutaj pan prezes, czyli fragmentaryczność i niedopuszczenie do tego, żeby to wdrożenie wyglądało inaczej w różnych państwach członkowskich. Dobrze, żeby te różnego rodzaju grona, w których państwo dyskutujecie z innymi partnerami z Europy były właśnie do tego, żeby zapewnić tę spójność. Nawet w poprzednim tygodniu widzieliśmy, że kolejna firma ze Stanów Zjednoczonych opóźniła premierę w Unii Europejskiej swojego produktu opartego na sztucznej inteligencji, podając za jeden z głównych powodów ryzyko regulacyjne. To po prostu pokazuje, w jakim jesteśmy momencie jako biznes.</u>
          <u xml:id="u-1.54" who="#MarcinKrasuski">Jeżeli chodzi o sam organ nadzoru, to my w konsultacjach stwierdzaliśmy, że warto byłoby, gdyby ten organ nadzoru, który będziecie państwo powoływali, nie był rozdzielony z organem dokonującym notyfikacji. Mamy kilka argumentów. Pierwszy argument jest taki, że dopuszcza do tego AI Act. To nie jest coś takiego, że polski rząd występowałby przeciwko AI Act. Po drugie, przemawiają za tym względy praktyczne. Nie będę mówił o procedurze nadmiernego deficytu. Ale w tej chwili bardzo trudno jest pozyskać dobrych ekspertów od sztucznej inteligencji. My w sektorze prywatnym widzimy to na co dzień. Ci ludzie są naprawdę bardzo szybko rozchwytywani i wyobrażamy sobie, że instytucje publiczne, które jednak nie są tak atrakcyjne, jak sektor prywatny miałyby pewnie większy problem. Dlatego naszym zdaniem większy sens ma skupienie tej ekspertyzy w polskim państwie w jednej instytucji. Kolejnym elementem, który się z tym wiąże jest to, że ta instytucja poza wydawaniem różnego rodzaju wytycznych mogłaby również pracować z biznesem nad doprecyzowaniem poszczególnych zastosowań czy w health care, czy w czymkolwiek sobie wyobrazimy. To też zapewniłoby większą spójność i szybkość tych prac.</u>
          <u xml:id="u-1.55" who="#MarcinKrasuski">To są moje punkty. Dziękuję bardzo za dyskusję za dyskusję.</u>
          <u xml:id="u-1.56" who="#GrzegorzNapieralski">Oddam panu ministrowi głos, bo pojawiło się dużo wątków. Bardzo proszę, panie ministrze.</u>
          <u xml:id="u-1.57" who="#DariuszStanderski">Oczywiście mam pełną świadomość, że nie odniesiemy stuprocentowego sukcesu, bo na odniesienie stuprocentowego sukcesu musielibyśmy dążyć w ogóle do zmian w pracach wszystkich instytucji unijnych, co moim zdaniem docelowo jest rozwiązaniem koniecznym i pożądanym, ale to nie jest perspektywa polskiej prezydencji, ale może następnej polskiej prezydencji i to optymistycznie patrząc.</u>
          <u xml:id="u-1.58" who="#DariuszStanderski">Jeżeli chodzi o poruszoną kwestię małych i średnich przedsiębiorców, kwestii wsparcia ich również poza kwestią regulacyjną, to chciałbym również zwrócić uwagę na deklarację pani przewodniczącej von der Leyen, która również być może będzie miała swoje rozwinięcie w czasie prezydencji w kontekście „apply AI strategy”, czyli rozwiązania, które nie tylko poszerza obszar dyskusji podkomisji, ale dodaje ten element wsparcia finansowego, wsparcia strukturalnego, wdrażania nowych rozwiązań w zakresie sztucznej inteligencji. Tutaj też jesteśmy w dialogu z Komisją Europejską i dostajemy sygnały z Komisji Europejskiej, że pierwsze założenia nowych dokumentów, które mają powstawać w Komisji Europejskiej mogą być nawet jeszcze w tym roku w grudniu. W związku z czym to jest dość ambitny program ze strony Komisji Europejskiej, ale ze względu na to, że przewodnicząca Komisji Europejskiej została powołana tak szybko i tak bezproblemowo, to być może jest teraz taki kierunek, że równie szybko zostanie powołany cały collage i szybciej będziemy mieli komisarza lub komisarkę i będziemy również pracować nad strategią wdrożeń sztucznej inteligencji.</u>
          <u xml:id="u-1.59" who="#DariuszStanderski">Bardzo ciekawe i ważne były postulaty zgłoszone przez pana dr Nowakowskiego. Pokazują one też to, że powinniśmy wzorować się też na tych rozwiązaniach, które działają w istniejących organach jak np. w Komisji Nadzoru Finansowego, jeżeli chodzi o wiążące interpretacje, bo to w mojej ocenie może być również wyjście naprzeciw wyzwaniom w zakresie sztucznej inteligencji, które będą szybsze niż nasza zdolność do wprowadzania zmian ustawowych . To może być taki model przejściowy, gdzie zanim skończymy prace ustawowe w pełnym zakresie, to już w częściowym zakresie uprzedni stan prawny może uprawnić Komisję Europejską do wydania wiążących interpretacji, tak jak dzisiaj uprawniona jest do tego Komisja Nadzoru Finansowego.</u>
          <u xml:id="u-1.60" who="#DariuszStanderski">W pełni zgadzam się, że akt o sztucznej inteligencji nie jest najprostszym dokumentem legislacyjnym. Tutaj wyrażamy też jasno stanowisko, że to nie są dokumenty napisane w sposób jak najbardziej przejrzysty. Mamy podobnie przy wspominanym tutaj akcie o usługach cyfrowych. Kwestie definicyjne również były w dialogu z prawnikami, prawniczkami i lingwistami. Tutaj też nie wszystko jest w gestii Ministerstwa Cyfryzacji. W tym zakresie mamy pełną świadomość ograniczeń i trudności, jakie są przed nami, dlatego tak ważna będzie polska ustawa wdrażająca, żeby te mankamenty nie rozwiązać w całości, bo wiemy, że jest to niemożliwe, ale w znaczącym stopniu je ograniczyć.</u>
          <u xml:id="u-1.61" who="#DariuszStanderski">Jeżeli chodzi o uwagi dotyczące i poziomu finansowania, i kwestii też siły sprawczej, jeżeli chodzi o kwestie kadrowe, to mając w pamięci, coraz częściej w świadomości procedurę nadmiernego deficytu, ograniczenia budżetowe, apelujemy o wsparcie, o dobre słowo, co na pewno ułatwi nam dialog z właściwymi organami, bo rzeczywiście finansowanie będzie stanowiło dla nas wyzwanie. Tak jak rozmawiamy czy to w zakresie cyberbezpieczeństwa, czy rozwoju cyfrowego – dzisiaj zaoszczędzony milion może spowodować miliard strat za miesiąc albo za rok. Uważamy, że to jest pole, w którym należy inwestować.</u>
          <u xml:id="u-1.62" who="#DariuszStanderski">Natomiast, jeżeli chodzi o kwestie informacyjne, edukacyjne, to w Ministerstwie Cyfryzacji pracujemy nad serią szkoleń dla urzędniczek i urzędników, również dla przedsiębiorców i dla obywatelek i obywateli, żeby zwiększać poziom świadomości, umiejętności w tym zakresie.</u>
          <u xml:id="u-1.63" who="#DariuszStanderski">Jeżeli chodzi o kwestie medialne, o których mówił też pan dr Nowakowski, to wiecie państwo, w przypadku sztucznej inteligencji, to tak jak ze wszystkim, często liczy się news, dlatego dzisiaj na jednym z portali, i to całkiem zasięgowych, przeczytamy, że mObywatel zostanie wyłączony – taki jest tytuł „mObywatel zostanie wyłączony”. Jak klikniemy, to jest informacja, że zostanie wyłączony, ale na godzinę, bo będą prace porządkowe. Widzicie jak to działa. W tym przypadku będziemy prowadzić też kampanie informacyjne, będziemy organizować konferencje w zakresie sztucznej inteligencji, na które też serdecznie zapraszamy, niedługo będziemy wracać z konkretami.</u>
          <u xml:id="u-1.64" who="#DariuszStanderski">Jeżeli chodzi o nowe wyzwania, o których mówił pan dr Nowakowski, to musimy także pamiętać w zakresie współpracy z UOKiK, czy to z innymi organami i instytucjami, że zmiana, którą wprowadzamy i która wprowadza się z nami czy bez nas dotyczy nie tylko nowego urzędu, nowej komisji, ale dotyczy rzeczywiście całego środowiska i to nie tylko tego, które musimy zbudować, ale również tego, które jest wokół nas i będzie miało dużo połączeń z ustawą o systemie nadzoru nad sztuczną inteligencją. Ustawa wdrażająca DSA pewnie będzie nowelizowana przez ustawę wdrażającą akt o sztucznej inteligencji w zakresie połączenia tych dwóch organów, tak samo, jeżeli chodzi o dzisiejszą działalność CSIRT czy dzisiejsze działania w zakresie cyberbezpieczeństwa. Pamiętajmy, że to, że wejdzie w życie akt o sztucznej inteligencji, to nie zwolni nikogo ani nie spowoduje, że nie trzeba już będzie ścigać deep fake’ów spowodowanych przez AI. W momencie zgłoszenia tego do CSIRT NASK, zwróci się on do Komisji Nadzoru nad Sztuczną Inteligencją, jeżeli zauważy, że dane oszustwo zostało wykonane przez system zakazany. To wszystko będziemy linkować. Im więcej rozpoznamy tych połączeń, tym mniej będziemy mieli najpierw ograniczeń, a później dodatkowych nowelizacji aktu o sztucznej inteligencji. Dziękuję bardzo.</u>
          <u xml:id="u-1.65" who="#GrzegorzNapieralski">Oddaję panu głos. Proszę się przedstawić.</u>
          <u xml:id="u-1.66" who="#BorysStokalskiDzierżykraj">Chciałem zapytać, i przy okazji zaapelować, o relacje takich dwóch projektów szczególnie istotnych w obszarze sztucznej inteligencji. Jeden to jest oczywiście to, o czym rozmawiamy dzisiaj, czyli proces wdrożenia regulacji w obszarze sztucznej inteligencji, a drugi to jest polityka AI. To jest tak, że wydaje mi się, że one razem mogą zrobić dużo dobrego albo dużo niekoniecznie dobrego. Dla mnie jako przedstawiciela bardziej tej strony biznesowej, gospodarczej, szczególnie ważna jest kwestia dobrego sformułowania polityki jako pewnego planu transformacji dokonywanej przez taki konglomerat technologii, w którym króluje dzisiaj sztuczna inteligencja – transformacji sektorów gospodarczych, rozwoju nowych produktów i usług przez przemysł cyfrowy. Wydaje się, że to jest rzeczywiście naprawdę spektakularna szansa dla Polski, żeby to, co udało się do tej pory osiągnąć, a rzeczywiście są to spektakularne osiągnięcia np. przemysł nr 5 w Europie to jest rzeczywiście sukces industrializacji. Wydaje się, że warto kontynuować tego typu osiągnięcia i warto kontynuować również pod tą ogromną presją modernizacyjną, którą dzisiaj wytwarza sztuczna inteligencja. Tutaj na pewno potrzebujemy dobrego pomysłu na to, jak to robić mądrze, bo jedno jest pewne – raczej nie stać nas na to, żeby tutaj powstały takie zasoby kapitałowe, żeby można było realizować projekty wyceniane na 90 mld dolarów, a które rocznie tracą 0,5 mld dolarów i nic złego się nie dzieje. To nie jest historia, która może się u nas wydarzyć, bo ta kołderka jest po prostu za krótka, musimy myśleć o tym bardziej portfelowo. Dlatego jest to ważne.</u>
          <u xml:id="u-1.67" who="#BorysStokalskiDzierżykraj">Ale łączy się to również z tym zagadnieniem tego, jak wdrożymy AI Act, bo AI Act to są reguły, ale to oczywiście są też sankcje. To jest cały system zarządzania ryzykiem, bo cała ta filozofia jest oparta o jakąś klasyfikację ryzyk. Pewne rzeczy są oczywiste, czyli gdzie są sankcje, a gdzie są rynkowe zachęty do inwestowania we właściwy sposób, ale są też pewne rzeczy mniej oczywiste, czyli np. zagadnienie zarządzania ryzykiem przez reguły sankcji, to jest AI Act, ale np. transformacja rynku pracy, to są takie rzeczy, o których można już rozmawiać z różnych perspektyw. Z jednej strony AI Act ewidentnie zawiera pewne praktyki, które po prostu wykluczają zastosowanie określonych rozwiązań w dziedzinie… zarządzania, i zresztą bardzo dobrze, ale to jest tylko część zagadnień, która tworzy rozwój sztucznej inteligencji w obszarze transformacji pracy i do tego de facto potrzebna jest polityka – czego chcemy, a czego chcemy unikać.</u>
          <u xml:id="u-1.68" who="#BorysStokalskiDzierżykraj">Wydaje mi się, że dla mnie najważniejszym, fundamentalnym zagadnieniem jest praktyka odpowiedzialnej inżynierii AI Act. Tak jak w Polsce ma to przemysł budowlany, ma to lotnictwo. Ma to przemysł budowlany, po tym, jak na przełomie XIX i XX w. zawalały się mosty, potężne konstrukcje reinfrastrukturalne, a jednocześnie była wolna prasa, która mogła to nagłaśniać. Dzisiaj można powiedzieć, że też mamy do czynienia z takimi spektakularnymi awariami, jak ta, która niedawno się wydarzyła. Wydaje się, że już słychać to pukanie do drzwi, że potrzebna jest jakaś formuła usankcjonowania odpowiedzialnych praktyk w zakresie budowy systemów wykorzystujących sztuczną inteligencję, wsparcia tego przez środowisko akademickie, być może wsparcia tego przez systemy certyfikacji specjalistów, którzy powinni być zaangażowani w pewne systemy, a jeżeli tego nie ma, to jest to obszar malpractice.</u>
          <u xml:id="u-1.69" who="#BorysStokalskiDzierżykraj">Kończąc może troszkę przydługą wypowiedź, krótko mówiąc, widać, że te rzeczy są ze sobą bardzo powiązane. Nie mamy zbyt dużo czasu, żeby się tym zająć, ale pewne rzeczy trzeba zrobić. Chciałem państwa zapytać, jak państwo dzisiaj widzicie te priorytety, punkty ciężkości pomiędzy tym, co chcemy zrobić w obszarze regulacji vs co chcemy zrobić w obszarze prorozwojowej polityki? Jak państwo widzicie zagadnienie zarządzania tą złożonością, tymi zależnościami jednego od drugiego?</u>
          <u xml:id="u-1.70" who="#GrzegorzNapieralski">Bardzo proszę, pani profesor.</u>
          <u xml:id="u-1.71" who="#MartaGrabowska">Chciałam wzmocnić bardzo słuszną uwagę przekazaną przez mojego przedmówcę, mianowicie jednak zwrócić uwagę na normy europejskie. To słowo „standardy” używa się czasem w różny sposób, czasem odnosi się do prawa, ale ja tutaj chcę podnieść kwestię standardów, czyli norm europejskich. Otóż chciałam zwrócić uwagę, że już sporo tych norm europejskich jest przede wszystkim w tym zakresie dotyczącym przede wszystkim sztucznej inteligencji. Przede wszystkim są one wydane przez tę organizację ETSI. Jak je wziąć do ręki i przyjrzeć im się troszeczkę bliżej, to okazuje się, że w bardzo wielu przypadkach jest tam rozwinięcie w bardzo klarowny sposób tego, co czasem jest niejasne w samym akcie prawnym np. jeśli chodzi o wymagania etyczne, bo te kwestie są w tych „standardach”, w tych normach, używam tego słowa, żeby nie mylić z prawem, tam w tych normach jest podany cały szereg rzeczy. Jak widzę szykuje się bardzo duża akcja przygotowywania następnych norm. Wydaje mi się, że w tej sytuacji, idąc tropem mojego szanownego przedmówcy, może warto byłoby właśnie jednak uczulić Polski Komitet Normalizacyjny, żeby zrobił jakiś przegląd tych norm europejskich, żeby nowopowstający urząd miał je pod ręką.</u>
          <u xml:id="u-1.72" who="#MartaGrabowska">Poza tym, o ile się orientuję w pracach tych organizacji, a miałam z tym sporo do czynienia, chcę tutaj powiedzieć, że niektóre z tych standardów, gdyby okazało się, że są potrzebne, to można zamówić np. polskie tłumaczenie i te organizacje po prostu to opłacą. Żeby mieć ten dodatkowy aparat, wprawdzie są one w wielu przypadkach nieobowiązkowe, tylko są zalecane, niemniej jednak np. w takich sytuacjach, kiedy powstawałyby jakieś problemy w sądach, właśnie w zakresie orzecznictwa, to może się okazać, że sądy zaczną sięgać właśnie po tego typu dokumenty jako dość jasno rozstrzygające w niektórych kwestiach. Jak popatrzeć, to tam już jest sporo tego materiału, od pewnego czasu powstają już te normy europejskie. Zwracam tutaj uwagę na ETSI, ale są również CEN i CENELEC. Wydaje mi się, że warto zwrócić na to uwagę. Poza tym nie tylko prawo, ale w tym przypadku również normy europejskie są niezwykle ważne.</u>
          <u xml:id="u-1.73" who="#MartaGrabowska">Jeżeli chcemy stworzyć ten urząd, to wydaje mi się, że od razu in statu nascendi nawiązanie jakiejś współpracy z Polskim Komitetem Normalizacyjnym, żeby on po prostu śledził te rzeczy, czy też nawet reagował w pewnych sytuacjach. Może się to okazać bardzo przydatne. Któryś z tych dokumentów miałam już w ręku i nawet go przeczytałam i jeżeli chodzi o wymagania etyczne, to w tych normach europejskich jest sporo na ten temat i można się tam wiele dowiedzieć. Dziękuję bardzo.</u>
          <u xml:id="u-1.74" who="#GrzegorzNapieralski">Panie ministrze, bardzo proszę.</u>
          <u xml:id="u-1.75" who="#DariuszStanderski">Na podstawie tych dokumentów będzie również tworzony fundusz sztucznej inteligencji, o którym z pewnością przeprowadzimy niejedną dyskusję. Kluczowe jest tutaj zaplanowanie tego funduszu, bo kwota jest ważna, ale w momencie kiedy zaplanujemy nawet dużo wyższą kwotę, nawet jak dopiszemy zero do tej propozycji, to co nam po funduszu sztucznej inteligencji, jeżeli będzie on działał on, tak jak jeden z programów NCBR, kiedy nabór został ogłoszony chyba w maju zeszłego roku, a ogłoszenie wyników konkursu miało miejsce po roku. Co nam po tym, jak po roku niepewności finansowanie dostają projekty, które nie mają już możliwości bycia projektami realnie wpływającymi na rynek skoro w ciągu roku w innych miejscach zdarzyło się dużo więcej w tym zakresie? Sprawność tego funduszu będzie tutaj kluczowa.</u>
          <u xml:id="u-1.76" who="#DariuszStanderski">Niezależnie od tych trzech dokumentów i jednego podmiotu, oczywiście pracujemy nad dokumentami, standardami trochę niższego rzędu, ale dalej bardzo ważnymi, jak np. standardy wykorzystania sztucznej inteligencji w administracji publicznej, nad czym pracujemy teraz w ramach Komitetu Rady Ministrów do spraw Cyfryzacji, czy, jeżeli chodzi o standardy przewidywane w akcie o sztucznej inteligencji, o którym już mówiłem.</u>
          <u xml:id="u-1.77" who="#DariuszStanderski">W pełni zgadzam się z tym, że nie jesteśmy w miejscu, w którym możemy sobie pozwolić na zainwestowanie np. 10 mld zł z nadzieją, że z 2 mld na projekty wyjdzie coś ciekawego. Dlatego pracujemy nad innymi rozwiązaniami.</u>
          <u xml:id="u-1.78" who="#DariuszStanderski">Jedna z moich wypowiedzi, która została krytycznie skomentowana, za co też bardzo dziękuję, dotyczyła kwestii stworzenia warunków do wykorzystania modeli sztucznej inteligencji w polskich małych i średnich przedsiębiorstwach, tak żeby zapewnić tę stronę popytową. Jeżeli chodzi np. o programy mieszkaniowe, to jestem zwolennikiem strony podażowej, to jeżeli chodzi o sztuczną inteligencję jestem zwolennikiem strony popytowej, ponieważ w momencie, w którym będziemy wspierać polskich, europejskich czempionów w zakresie sztucznej inteligencji, ale po naszym wsparciu oni nie trafią na polskim rynku na możliwość rozwijania swoich biznesów, to wtedy nasza pomoc nie będzie miała większego sensu, wtedy oni zgłoszą się do nas po kolejny grant. W momencie, kiedy będziemy nie tylko wspierać nowe rozwiązania, żeby rozwijały się w zakresie ofert, ale umożliwimy wykorzystanie tych rozwiązań w miejscach, które dzisiaj są bardzo daleko od wykorzystania sztucznej inteligencji. Czytaliśmy raporty, które mówią o jednocyfrowym wykorzystaniu w Polsce tej chwili. Da nam to możliwość wykorzystania potencjału, którego dzisiaj nie wykorzystujemy z wielu różnych względów. To może być wykorzystanie potencjału, jaki rzeczywiście mamy, a nie jaki chcielibyśmy mieć dzisiaj, a przy dobrych politykach będziemy mieć za kilka lat. Dziękuję bardzo.</u>
          <u xml:id="u-1.79" who="#GrzegorzNapieralski">Nie widzę zgłoszeń.</u>
          <u xml:id="u-1.80" who="#GrzegorzNapieralski">Na tym wyczerpaliśmy porządek dzienny posiedzenia. Dziękuję wszystkim państwu za obecność. Dziękuję za udział panu ministrowi, pani dyrektor za to, że byliście dzisiaj państwo z nami i przedstawiliście informację. Mam nadzieję, że zaraz po wakacjach parlamentarnych wrócimy do naszej dyskusji. Z podkomisji na podkomisję zbiera nam się coraz więcej tematów. Tak jak powiedziałem – jesteśmy do dyspozycji również ministerstwa, jeśli chodzi o wsparcie. Jeszcze raz bardzo dziękuję.</u>
          <u xml:id="u-1.81" who="#GrzegorzNapieralski">Zamykam posiedzenie podkomisji. Do zobaczenia.</u>
        </div>
      </body>
    </text>
  </TEI>
</teiCorpus>