text_structure.xml 73.5 KB
<?xml version='1.0' encoding='UTF-8'?>
<teiCorpus xmlns:xi="http://www.w3.org/2001/XInclude" xmlns="http://www.tei-c.org/ns/1.0">
  <xi:include href="PPC_header.xml"/>
  <TEI>
    <xi:include href="header.xml"/>
    <text>
      <body>
        <div xml:id="div-1">
          <u xml:id="u-1.0" who="#PrzewodniczacyposelJanGrabiec">Otwieram posiedzenie Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii. Witam serdecznie wszystkich posłów obecnych na sali oraz uczestniczących w naszym posiedzeniu zdalnie. Witam gości Komisji, przedstawicieli Kancelarii Prezesa Rady Ministrów: panią Justynę Orłowską – pełnomocnika premiera do spraw GovTech i pana Roberta Kroplewskiego – pełnomocnika ministra cyfryzacji do spraw społeczeństwa informacyjnego. Witam przedstawicieli Urzędu Ochrony Konkurencji i Konsumentów, Najwyższej Izby Kontroli, Głównego Inspektoratu Pracy, Urzędu Ochrony Danych Osobowych, Polskiej Izby Informatyki i Telekomunikacji, Polskiego Towarzystwa Informatycznego, Związku Cyfrowa Polska oraz stowarzyszeń i związków pracodawców branży internetowej.</u>
          <u xml:id="u-1.1" who="#PrzewodniczacyposelJanGrabiec">Szanowni państwo, żeby rozpocząć obrady musimy stwierdzić kworum. Przystępujemy teraz do stwierdzenia kworum, za chwilę głosowanie, jednocześnie informuję, że posiedzenie Komisji zostało zwołane przez marszałek Sejmu na podstawie art. 198j ust. 2 regulaminu Sejmu i prowadzone będzie z wykorzystaniem środków komunikacji elektronicznej umożliwiających porozumiewanie się na odległość. Paniom i panom posłom, którzy uczestniczą w posiedzeniu zdalnie, przypominam, że zgłoszenia do zabrania głosu w dyskusji należy wysyłać pod adres mailowy Komisji lub przez czat w aplikacji, po zalogowaniu się do pokoju wideokonferencyjnego. Posłowie, członkowie Komisji obecni na sali są już zalogowani i wiedzą, jak wziąć udział w głosowaniu.</u>
          <u xml:id="u-1.2" who="#PrzewodniczacyposelJanGrabiec">Przystępujemy do stwierdzenia kworum. Bardzo proszę posłów uczestniczących w posiedzeniu Komisji o wciśnięcie jakiegokolwiek przycisku w celu potwierdzenia obecności na posiedzeniu. Dziękuję bardzo, kończymy głosowanie. Proszę o podanie informacji o wyniku.</u>
          <u xml:id="u-1.3" who="#PrzewodniczacyposelJanGrabiec">Szanowni państwo, głosowało 15 posłów. Stwierdzam kworum, a także przyjęcie protokołu z poprzedniego posiedzenia Komisji wobec niewniesienia do niego zastrzeżeń.</u>
          <u xml:id="u-1.4" who="#PrzewodniczacyposelJanGrabiec">Porządek dzisiejszego posiedzenia obejmuje informację ministra cyfryzacji na temat działań służących wdrażaniu „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020”. Zanim przejdziemy do wystąpień przedstawicieli Kancelarii Premiera, chciałbym poinformować członków Komisji i naszych gości, że zwróciłem się do pana premiera Mateusza Morawieckiego w sprawie, która jest sprawą bulwersującą w ostatnich dniach, mianowicie wycieku danych osobowych ponad 20 tysięcy funkcjonariuszy służb publicznych, w szczególności policjantów, celników, strażaków, pracowników Służby Ochrony Państwa. Do tego wycieku doszło za sprawą Rządowego Centrum Bezpieczeństwa, nomen omen. Mamy do czynienia z bardzo poważną sytuacją. Szereg wrażliwych danych osobowych zostało upublicznionych. Jako Komisja oczekujemy pilnej informacji ze strony pana premiera i wskazanych przez niego osób na temat przyczyn, powodów i okoliczności, w jakich doszło do wycieku tych danych, jak też czynności podjętych przez administrację rządową w tej sprawie. Myślę, że powinniśmy się zainteresować tą sprawą w szczególny sposób, bowiem w dobie informatyzacji te dane osobowe stanowią zagrożenie zarówno dla bezpieczeństwa Państwa, jak też przede wszystkim dla bezpieczeństwa osób, których dane zostały upublicznione, a mówimy tutaj o szczególnych funkcjonariuszach publicznych, na przykład o funkcjonariuszach Centralnego Biura Śledczego Policji i innych służb, czyli o danych szczególnie wrażliwych.</u>
          <u xml:id="u-1.5" who="#PrzewodniczacyposelJanGrabiec">Jeśli państwo reprezentujący kancelarię premiera chcieliby coś na ten temat powiedzieć już dzisiaj, to bylibyśmy wdzięczni, bo ta informacja obiegła opinię publiczną w Polsce i myślę, że pilne wyjaśnienie tej sprawy jest w naszym wspólnym interesie. Jeśli takich informacji dzisiaj nie mamy, to postaram się przedstawić je państwu na najbliższym posiedzeniu Komisji, przekazać je państwu posłom, żebyśmy mogli w tej sprawie zająć stanowisko.</u>
          <u xml:id="u-1.6" who="#PrzewodniczacyposelJanGrabiec">Teraz – jeśli to możliwe – poproszę o połączenie z panią Justyną Orłowską, pełnomocnikiem Prezesa Rady Ministrów do spraw GovTech i przedstawienie informacji na temat wdrażania „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, chyba że ewentualnie zechce nas też pani poinformować na temat bieżącej sytuacji w sprawie wycieku danych. Bardzo proszę o zabranie głosu.</u>
        </div>
        <div xml:id="div-2">
          <u xml:id="u-2.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Dziękuję, panie przewodniczący. Jeżeli chodzi o bieżącą sytuację, to nie zostałam upoważniona, żeby odpowiadać na to pytanie, więc pozostawię tę sprawę, jak powiedział pan przewodniczący, do wyjaśnienia na przyszłe posiedzenie. Wracając natomiast do tematu, do którego przedstawienia państwu jestem upoważniona, to – Wysoka Komisjo, szanowni państwo – przede wszystkim chcę bardzo podziękować za tę możliwość, iż w imieniu ministra cyfryzacji możemy przed tak zaszczytnym gronem opowiedzieć, nad czym pracujemy. Wiem, że przed dzisiejszym posiedzeniem otrzymali państwo bardziej szczegółowy materiał, więc postaram się możliwie szybko przedstawić to co najważniejsze, najważniejsze elementy naszych działań w obszarze wdrażania sztucznej inteligencji.</u>
          <u xml:id="u-2.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">W tym obszarze, tak jak w przypadku większości tzw. technologii przełomowych, Polska nie jest samotną wyspą. Wręcz przeciwnie. Można powiedzieć, że nasza podróż ku skutecznemu wdrożeniu tej technologii musi odbywać się w porozumieniu z partnerami europejskimi i zagranicznymi. Widać to choćby po opublikowanej wczoraj unijnej „Strategii Rozwoju Sztucznej Inteligencji”, dokumencie, który jest spójny z naszą krajową strategią. W tym obszarze poproszę za chwilę mec. Kroplewskiego, który był zaangażowany w prace nad tymi regulacjami, o uzupełnienie tego co mówię.</u>
          <u xml:id="u-2.2" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Zacznijmy jednak od naszego krajowego podwórka. Na początku pozwolę sobie przypomnieć kilka faktów na temat „Polityki rozwoju sztucznej inteligencji w Polsce od roku 2020”, zwanej przez nas potocznie polityką AI. 28 grudnia 2020 r. rząd przyjął ten strategiczny dokument określający działania, które będą wykonywane właśnie w obszarze rozwoju sztucznej inteligencji: w krótkiej perspektywie – do 2023 r., średniej – do 2027 i tej dłuższej – po 2027 r. Łącznie tych działań jest 192, wdrażających 75 celów. To jedna z największych liczb wśród rządowych programów, oddająca w pełni to jak bardzo ważne i jak bardzo skomplikowane i złożone jest wdrażanie takich zagadnień jak sztuczna inteligencja. Ważne jest to, aby podkreślić, że te działania nie powstawały w zaciszu jakichkolwiek gabinetów administracji rządowej, ale w bliskim dialogu z ekspertami i organizacjami pozarządowymi. Łącznie było ich ok. 180 i reprezentowali kilkadziesiąt organizacji od trzeciego sektora po małe, średnie i duże firmy z wielu sektorów. Widać to też po ocenach rynkowych. Spośród tych, którzy przeczytali naszą politykę AI, ponad 2/3 ocenia ją pozytywnie według raportu „Digital Poland”.</u>
          <u xml:id="u-2.3" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Jeżeli zaś chodzi o działania, to ważne jest by podkreślić, że to co jest opisane w polityce AI, to nie jest wyczerpująca lista. Po pierwsze dlatego, że w każdej chwili mogą być one uzupełniane o nowe inicjatywy, a po drugie, dlatego że wdrożenie odbywa się za pośrednictwem planów wdrożeniowych, które każde ministerstwo opracowuje. Zaczynając od tego roku, w każdym roku będzie taki plan przedstawiany przez poszczególne resorty. Nie zostawiamy ich oczywiście bez pomocy. Powołaliśmy specjalny zespół doradczy we współpracy z Naukową Akademicką Siecią Komputerową, z NASK, którego rolą jest praca na bieżąco z instytucjami, aby te plany były zestawem realnych działań zamiast ogólnymi deklaracjami.</u>
          <u xml:id="u-2.4" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Oprócz tego prowadzimy szereg projektów własnych. Jako przykład mogę podać opracowanie przez nas, do stosowanego nowego Prawa zamówień publicznych, modelu pozyskiwania innowacji, przeprowadzone w ramach Programu GovTech Polska czy projekty realizowane we współpracy z Ministerstwem Finansów, czy Krajową Radą Radiofonii i Telewizji. Pracujemy również nad obszarami ważnymi dla ochrony praw i wolności obywateli, choćby oceną skutków algorytmu, jako obowiązkowego elementu wrażania systemów informatycznych, czyli to już będzie takie must have do każdego z wdrażanych systemów informatycznych.</u>
          <u xml:id="u-2.5" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Zanim oddam głos mec. Kroplewskiemu, to jeszcze tylko dodam, że celem na ten rok jest wdrożenie 33% realizacji zadań krótkoterminowych, tych, które są zakładane, żeby zrealizować je w pełni do 2023 r. Dziękuję serdecznie. Na tę chwilę to tyle ode mnie. Pozostaję oczywiście do dyspozycji.</u>
        </div>
        <div xml:id="div-3">
          <u xml:id="u-3.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo. O zabranie głosu poprosimy pana Roberta Kroplewskiego, pełnomocnika ministra cyfryzacji do spraw społeczeństwa informacyjnego.</u>
          <u xml:id="u-3.1" who="#PrzewodniczacyposelJanGrabiec">Pełnomocnik ministra cyfryzacji do spraw społeczeństwa informacyjnego Robert Kroplewski:</u>
          <u xml:id="u-3.2" who="#PrzewodniczacyposelJanGrabiec">Dzień dobry państwu. Szanowny panie przewodniczący, szanowna Komisjo, na wstępie chcę podziękować pani minister za przedstawienie mojej osoby i przekazanie mi tego wątku. Jest mi niezwykle miło przedstawiać ten obszar, gdyż Polska od kwietna 2018 r., kiedy wspólnie z państwami wyszehradzkimi wystosowała deklarację w sprawie wzmożenia działań Komisji Europejskiej, aby ta opracowała politykę i strategię unijną dotyczącą sztucznej inteligencji – ta deklaracja teraz właśnie się zrealizowała. Dokładnie wczoraj dobiliśmy do pewnego końca obszaru eksploracji i konceptualizacji strategicznych działań Unii Europejskiej i przechodzimy do fazy wdrożenia.</u>
          <u xml:id="u-3.3" who="#PrzewodniczacyposelJanGrabiec">Ta polityka sztucznej inteligencji, która wczoraj została ogłoszona przez Komisję Europejską, dotyczy kilku obszarów. Przede wszystkim jest to skoordynowany plan dla rozwoju sztucznej inteligencji w Unii Europejskiej, którego głównym motywem jest wytworzenie pewnej trzeciej wartości w produkcji modeli sztucznej inteligencji, która konkuruje niejako z etyką modeli sztucznej inteligencji wytwarzanych przez obszar atlantycki i chiński. Ta trzecia droga jest oparta na koncepcji godnej zaufania sztucznej inteligencji. Ta koncepcja łączy w sobie trzy filary. Przede wszystkim musi być zgodna z prawem, musi być etyczna i jednocześnie odporna technicznie i organizacyjnie.</u>
          <u xml:id="u-3.4" who="#PrzewodniczacyposelJanGrabiec">Skoordynowany plan dla rozwoju sztucznej inteligencji, jeżeli chodzi o wczorajszy dokument jest aktualizacją planu, który został ogłoszony w 2018 r. Jego nowość, również dla Polski, ma znaczenie w tym sensie, że została uwzględniona grupa interwencyjna w obszarze rolnictwa – to jest bardzo ważne – jednocześnie zostały uwzględnione wątki decentralizacji centrów doskonałości. W pierwotnych pracach rozważano stworzenie jednego Centrum Doskonałości w Unii Europejskiej. Jak państwo doskonale zdajecie sobie z tego sprawę, Polska stoi na stanowisku, aby rynek jednolity, cyfrowy, był niepodzielny i aby nie dochodziło do fragmentaryzacji. W tym sensie również osiągnęliśmy swój cel.</u>
          <u xml:id="u-3.5" who="#PrzewodniczacyposelJanGrabiec">Jeżeli chodzi o sprawy dotyczące tzw. sieci EDIH-ów, czyli ośrodków innowacji, to udało się, w skorelowanym planie dla sztucznej inteligencji, wprowadzić zasadę, że taki EDIH może być również poświęcony działaniu administracji publicznej. Pierwotnie planowano te EDIH jedynie tylko do obszaru przemysłowego.</u>
          <u xml:id="u-3.6" who="#PrzewodniczacyposelJanGrabiec">Wczorajszy dokument został uzupełniony o pierwszą i historyczną propozycję regulacji sztucznej inteligencji na terenie Unii Europejskiej, natomiast to jest precedens w skali świata. Unia Europejska zdecydowała się podzielić modele sztucznej inteligencji na modele wysokiego ryzyka, średniego ryzyka i jakby minimalnego ryzyka. Ważne jest to, że przede wszystkim modele sztucznej inteligencji, które są objęte tą przesłanką wysokiego ryzyka, będą musiały podlegać wcześniejszej ewaluacji czy nawet certyfikacji i głównie dotyczy to obszaru usług publicznych, transportu, procedury sądowej, obszaru migracji, obszaru ryzyka medycznego, tam, gdzie sztuczna inteligencja jest niejako wbudowana w fizyczną stronę robotów medycznych. To jest o tyle ważne, że w tym dokumencie określono również definicję sztucznej inteligencji. Jest to system – i to jest bardzo ważne co chcę teraz powiedzieć – który jest inteligentnym agentem. Nie mamy więc do czynienia z żadnymi savannahami, żadnymi robocopami tylko agentem, który podlega nadzorowi człowieka i na tym polega główna wartość dokumentu wydanego przez Komisję Europejską, gdzie przewiduje się wprost nadzorczą rolę człowieka nad stosowaniem modeli sztucznej inteligencji.</u>
          <u xml:id="u-3.7" who="#PrzewodniczacyposelJanGrabiec">Drodzy państwo, to nie jest jednak koniec, gdyż jak wspomniałem, deklaracja wyszehradzka przewidywała również potrzebę wytworzenia obszarów sandboxów, czyli możliwości testowania technologii, nawet wysokiego ryzyka, po to, abyśmy mogli kształtować możliwości naszych specjalistów także w obszarze takich technologii. Sandboxy będą miały tę możliwość, że w wyniku pozytywnego przejścia testów będzie można zdecydować czy dana technologia będzie mogła wejść na rynek, czy też ewentualnie pozostanie tylko demonstratorem.</u>
          <u xml:id="u-3.8" who="#PrzewodniczacyposelJanGrabiec">Jednocześnie Unia Europejska we wczorajszym dokumencie zapowiedziała dwie inicjatywy ustawodawcze. Jedna dotyczy tzw. dyrektywy maszynowej, a druga, która jest nam bardzo bliska, dotyczy wytworzenia regulacji prawnej w obszarze odpowiedzialności za działania sztucznej inteligencji w całym cyklu jej życia i w podziale na role tam właśnie przydzielone. Głównie chodzi tutaj o rozdział między operatorami, podmiotami, które wdrażają i podmiotami, które używają sztucznej inteligencji. Na przykład trudno nam sobie wyobrazić, że równą odpowiedzialność za stosowanie sztucznej inteligencji będzie ponosił sędzia czy lekarz, jak i osoba, która wyprodukowała ten system sztucznej inteligencji.</u>
          <u xml:id="u-3.9" who="#PrzewodniczacyposelJanGrabiec">W obszarze międzynarodowym jesteśmy zaangażowani co najmniej od 3 lat, jeśli chodzi o temat sztucznej inteligencji i warto wspomnieć tutaj dość ważne i krytyczne dla nas inne inicjatywy, w których bierzemy aktywnie udział. Przede wszystkim jest to OECD, gdzie grupa IGO, tzw. niezależnych ekspertów, wygenerowała rekomendacje dla zarządzania godną zaufania sztuczną inteligencją. To jest o tyle ważne, że to jest obszar pozaunijny i te dwa nurty: godna zaufania sztuczna inteligencja w Unii Europejskiej i w OECD są wobec siebie zbieżne. Natomiast o wiele większe zaangażowanie w sensie krajów i niejako merytorycznie jest na poziomie UNESCO, gdzie bierzemy również udział w pracach grupy, która wytwarza w tej chwili globalne etyczne rekomendacje dla sztucznej inteligencji. To jest niezwykłe wyzwanie, bo trzeba pogodzić co najmniej kilka porządków etycznych z całego świata. Zawsze było pytanie: czy to się uda? Otóż udaje się. Pierwszy projekt już powstał. W przyszłym tygodniu dojdzie do kolejnych negocjacji, w tej chwili już międzyrządowych.</u>
          <u xml:id="u-3.10" who="#PrzewodniczacyposelJanGrabiec">I obszar być może najważniejszy dla naszych obywateli, czyli prace w Radzie Europy, gdzie dokładnie dwa tygodnie temu doszło do przedstawienia pierwszego studium wykonalności dla regulacji prawnych w obszarze praw człowieka, demokracji i praworządności. Mogę tylko skrótowo powiedzieć, że Rada Europy i eksperci tam zgromadzeni rozważają możliwość wprowadzenia tzw. twardego prawa traktatowego, jako uzupełnienie Europejskiej Konwencji Praw Człowieka, połączonego z prawem miękkim, czyli samoregulacją czy to na poziomie państw, czy to na poziomie prywatnych aktorów biorących udział w stosowaniu i wdrażaniu sztucznej inteligencji.</u>
          <u xml:id="u-3.11" who="#PrzewodniczacyposelJanGrabiec">Z rzeczy, które warto odnotować, w grudniu Polska przystąpiła do Globalnej Inicjatywy dla Sztucznej Inteligencji. To jest inicjatywa zapoczątkowana niejako przez Francję i Kanadę, i dotyczy operacjonalizowania zasad i rekomendacji wydanych dwa lata wcześniej przez OECD. Jest to dla nas zaszczyt. Jedynie 17 krajów bierze udział w tym projekcie. Są to takie kraje jak: Nowa Zelandia, Singapur, Japonia, Stany Zjednoczone, Brazylia. To tylko kilka, które postarałem się wymienić, natomiast jest to też wielka szansa dla naszych ekspertów, którzy zostali zaproszeni do prac w grupach roboczych, aby oni też mogli pochwalić się swoją wiedzą, dać jakąś wartość dodaną, a niejako też dać się zainspirować i stworzyć wspólnie projekt na miarę globalnych wyzwań.</u>
          <u xml:id="u-3.12" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo. W razie czego jestem gotowy do pytań.</u>
          <u xml:id="u-3.13" who="#PrzewodniczacyposelJanGrabiec">Dziękuję za przekazane informacje. Otwieram dyskusję w tej sprawie. Kto z państwa chciałby zabrać głos? Kto z posłów, członków Komisji obecnych na sali bądź zdalnie, chciałby zadać pytania w tej sprawie? Proszę się zgłaszać.</u>
          <u xml:id="u-3.14" who="#PrzewodniczacyposelJanGrabiec">Jest zgłoszenie pana posła Zandberga. Proszę o zabranie głosu, panie pośle.</u>
        </div>
        <div xml:id="div-4">
          <u xml:id="u-4.0" who="#PoselAdrianZandberg">Dzień dobry, chciałbym zadać pytania uszczegóławiające w dwóch sprawach. Jedno dotyczy tego niepokojącego pomysłu, który pojawił się w strategii w celach średniookresowych, w których rząd mówi, żeby wykorzystywać mechanizmy sztucznej inteligencji do tego, żeby zwiększać elastyczność na rynku pracy. Wszyscy wiemy, czym to pachnie, tak? To pachnie likwidowaniem rynku pracy, to pachnie pracą platformową ze wszystkimi jej patologiami, to pachnie organizacją miejsc pracy w taki sposób, który… Pewne oczywiste standardy, jeśli chodzi o prawa pracownicze nie są przestrzegane, a na pytanie, kto jest odpowiedzialny rozkłada się ręce i mówi się – to algorytm. Znamy tę historię choćby z Amazona, ale nie tylko. Mam poczucie, że tutaj nie słychać ze strony rządu jak z tym zagrożeniem i z tym wyzwaniem chce sobie radzić. Bardzo bym chciał, żebyśmy od rządzących uzyskali informację w tej sprawie. To jest jedna sprawa, jedno pytanie, które mam.</u>
          <u xml:id="u-4.1" who="#PoselAdrianZandberg">Drugie pytanie dotyczy tych centrów AI, bo skoro Polska sprzeciwiła się tworzeniu jednego, flagowego centrum AI, co wynika z komentarzy do white paper’a, i pewnie słusznie, mówiąc, że potrzebujemy takich hubów w każdym państwie członkowskim, specjalizujących się w konkretnych dziedzinach, to moje pytanie brzmi: jak w tym momencie wyglądają prace nad stworzeniem tych centrów doskonałości, nad organizacją tych hubów w Polsce i jaką wiodącą specjalizację widzi tutaj ministerstwo? Czy robotyka, czy uczenie maszynowe? Żeby nie skończyło się na tym, że z wielkich opowieści o przełomowych technologiach i sztucznej inteligencji zostaniemy światowym liderem w tworzeniu formularzy na potrzeby zgłaszania druków do urzędów. Myślę, że to byłoby zmarnowanie pewnej szansy, która jest tu przed Polską i sądzę, że dobrze byłoby o tym porozmawiać. Dziękuję.</u>
        </div>
        <div xml:id="div-5">
          <u xml:id="u-5.0" who="#PrzewodniczacyposelJanGrabiec">Bardzo dziękuję, panie pośle. Kto państwa zechce odpowiedzieć? Bardzo proszę.</u>
        </div>
        <div xml:id="div-6">
          <u xml:id="u-6.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Może ja odpowiem na tę pierwszą część, bo jeżeli chodzi o huby, to tak jak zresztą mec. Kroplewski wspominał, on się zna na tym lepiej niż ja. W tej pierwszej kwestii, bardzo dobrze, że pan poseł wskazał, że jest to w celach średnioterminowych. Dlaczego w celach średnioterminowych, a nie krótkich? Krótkie to są zagadnienia, które zostały faktycznie już przekonsultowane i są, można powiedzieć… Oczywiście, niektóre mogą dalej być podnoszone pod jakieś dyskusje i zawsze jesteśmy na nie otwarci. To nie jest tak, że siedzimy w gabinetach, jak mówiłam, i sami sobie coś wymyślamy, a następnie wdrażamy. Tak nie jest. To są właśnie cele średnioterminowe z tego względu, że to jest jeszcze okres, w którym jesteśmy zdecydowanie… Po to tworzymy gremia, tworzymy różne zespoły, chociażby kilkaset osób, blisko 500, zgłosiło się do naszego zespołu biznesowo-NGS’owego, dotyczącego właśnie tego, aby doprecyzowywać poszczególne punkty z „Polityki Rozwoju Sztucznej Inteligencji”, średni- i długoterminowe. Tak jak państwo zobaczyliście, polityka AI to są ramy, to są jakieś zagadnienia, które zostały poruszone, które zostały zasygnalizowane przez gremium NGS-owe, przez gremia biznesowe, obywatelskie, społeczne, dlatego że ważne jest to, aby w polityce AI było to zaadresowane, ale nie ma w tym dokumencie gotowych rozwiązań i to jest tak naprawdę… Zresztą panu posłowi Zandbergowi nie muszę tego tłumaczyć, bo z wykształcenia jest pan programistą, więc oboje doskonale wiemy, że to tzw. agile’owe, zwinne podejście, nowoczesne podejście do uprawiania polityk publicznych to jest właśnie to, aby nie określać na sztywno elementów w zwłaszcza tak dynamicznie zmieniającej się dziedzinie jak technologie przełomowe.</u>
          <u xml:id="u-6.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">W związku z tym, jakby odpowiadając na pytanie i kończąc już ten wywód, nie jest to tak, że tutaj są utarte pomysły. Zapraszam też pana posła serdecznie do tego gremium, aby rzecz przedyskutować i żeby to były mądre rozwiązania, przemyślane, bezpiecznie uwzględniające ten obszar etyczny. Natomiast jeżeli chodzi o to… To nie jest tak, że elastyczność nie oznacza końca umów śmieciowych. To jest po prostu praca zdalna oraz dopuszczenie pracowników na przykład poprzez takie programy jak „Poland. Business Harbour”. W tym programie otworzyliśmy granice naszego państwa na deweloperów z Białorusi i tutaj dziękuję Sejmowi, że zostały uchwalone pewne ułatwienia, które umożliwiły to, że Białorusini mogą sprawnie, zwinnie zdobywać tę pracę, jeszcze zwinniej.</u>
          <u xml:id="u-6.2" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Tak naprawdę w tym momencie było tak, że dla Białorusinów z branży deweloperskiej, programistycznej, czwartym punktem, który wybierali była Polska. Pierwszym była Ukraina, a w tym momencie już co drugi Białorusin wybiera Polskę i jesteśmy pierwszym krajem, który jest wybierany do emigracji, jeżeli chodzi o branżę sektora IT. Pamiętajmy o tym, że potrzebujemy 200 tysięcy specjalistów AI do 2025 r., więc nie zrobimy wiele bez otwierania rynku pracy. To jest nasze must have, które też musimy wspólnie bezpiecznie zaadresować, ale przy tak dużym zapotrzebowaniu gwarantuję, że ci ludzie faktycznie są najlepiej opłacani, po prostu są rozchwytywani, a wysoki popyt to oczywiście wysokie pensje i wynagrodzenia.</u>
          <u xml:id="u-6.3" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">To tyle, jeżeli chodzi o odpowiedź na pierwsze pytanie. Oczywiście niezmiennie zapraszam do współpracy i teraz pan mec. Kroplewski, gdyby można było, do drugiej części pytań pana posła Zandberga.</u>
          <u xml:id="u-6.4" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Pełnomocnik ministra cyfryzacji do spraw społeczeństwa informacyjnego Robert Kroplewski:</u>
          <u xml:id="u-6.5" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Dziękuję za głos, chętnie odpowiem, tylko chciałem jeszcze dodać do tej pierwszej części, że na ostatniej stronie dokumentu „Polityka Rozwoju Sztucznej Inteligencji w Polsce od 2020 r.” są dookreślone ramy, tak naprawdę polityczne. Jednym z pierwszych punktów jest właśnie przeciwdziałanie platformizacji w gospodarce, jeżeli ona miałaby mieć negatywne skutki dla naszej działalności, więc to też jest wątek niejako równoważący te ryzyka, które tutaj zostały ujawnione i które, oczywiście, doceniamy z całą mocą.</u>
          <u xml:id="u-6.6" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Szanowny panie pośle i szanowna Komisjo, a propos pytania o huby, to trzeba też to powiedzieć wprost, że państwo organizuje pewne warunki do tego, aby takie huby mogły powstać, natomiast bez woli konkretnych aktorów, podmiotów, które chciałyby stać się takim hubem bądź wejść w korporację, zawsze jest trudno.</u>
          <u xml:id="u-6.7" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">My z kolei, na szczęście, przeprowadziliśmy pewną akwizycję. W Polsce doszło do wyboru, w tej chwili jest 23 huby, które zostaną zaproponowane Komisji Europejskiej w celu wyboru ostatecznej listy hubów, które mogłyby powstać w Polsce. To tyle, jeżeli chodzi o huby innowacji, natomiast jeżeli chodzi o centra doskonałości, to przechodzimy do fazy organizacji tych centrów. Widzimy to w obszarach, które są dla nas strategiczne, czyli i w cyberbezpieczeństwie, i w obszarze rolnictwa, i w obszarze transportu. Jednym z takich centrów, które się w tej chwili organizuje, jest w obszarze HAI, czyli sztucznej inteligencji systemów, które są wbudowane w hardware i w jakiś sposób wpływają na pracę maszyn w świecie fizycznym. Tutaj taka nasza propozycja powstała. Również, jeśli chodzi o centrum doskonałości, które miałoby mieć swoją specjalizację, są kandydaci, którzy zgłosili się z obszaru transportu i logistyki. Czekamy na obszar rolnictwa i czekamy, na przykład, na obszar handlu. Lista będzie się zamykać najpóźniej pod koniec przyszłego miesiąca i wtedy będziemy przedstawiać listę naszych centrów doskonałości. Z tego co obserwujemy, takie centra mogłyby być ogniskowane wokół obszaru uczelni warszawskich, ale także krakowskich, wrocławskich, bardzo aktywne są także Radom i Rzeszów oraz Politechnika Gdańska. Ważne jest też to, żeby to nie były tylko domeny techniczne, ale również cywilne, niejako humanistyczne, ponieważ rozwój sztucznej inteligencji, w sensie tej doskonałości… Ten zdobędzie niejako prym, kto wykona pierwszy ruch konika szachowego, czyli zdobędzie niszę w ramach systemów sztucznej inteligencji. Dotychczasowe są w zastosowaniach marketingowych, reklamowych, też telewizyjnych, rzadziej stosuje się je w przemyśle, a na to też stawiamy, tzn., żeby w przemyśle móc takie centrum doskonałości uruchomić.</u>
          <u xml:id="u-6.8" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Bardzo możliwe, że centra doskonałości będą również tworzone przy okazji tworzenia centrów testowych. W tym przypadku nie wiem, czy państwo mieliście okazję to zaobserwować, ale bardzo dobrą aktywność wykazuje tutaj NCBiR, które ogłosiło konkurs właśnie na stworzenie centrów doskonałości w Polsce, w połączeniu z aktywnością testową. Tutaj czekamy na rozstrzygnięcia konkursu, kto się zgłosi i kto niejako uzyska finansowanie, ale ważne jest to, żeby to były konsorcja, żeby to była praca polegająca na kooperacji, a nie tylko na relacjach B2B. Dziękuję bardzo.</u>
          <u xml:id="u-6.9" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Przepraszam, może jeszcze tylko dodam, że każde z naszych centrów doskonałości będzie sieciowane tą siecią centrów doskonałości, która powstanie w Unii Europejskiej po to, aby zapewnić możliwość transgranicznej współpracy i rozwoju całego rynku europejskiego, a nie tylko poszczególnych jego fragmentów. Dziękuję.</u>
        </div>
        <div xml:id="div-7">
          <u xml:id="u-7.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję. Pan poseł Adrian Zandberg jeszcze do tych odpowiedzi. Bardzo proszę, panie pośle.</u>
        </div>
        <div xml:id="div-8">
          <u xml:id="u-8.0" who="#PoselAdrianZandberg">Pani minister mówiła tutaj o otwartości polskiego rynku pracy, jeżeli chodzi o programistów, ale ja myślę, że dobrze, żebyśmy byli ściśli w tym o czym mówimy, tak? To znaczy, że czym innym jest otwartość rynku pracy, a czym innym jest zapisane w średniookresowych celach zwiększanie elastyczności rynku pracy przez odpowiednie zmiany w prawodawstwie. Ale to, na co uczulam, szanowni państwo, to żebyśmy nie utrwalali patologii pracy platformowej. Na tym już poznało się wiele krajów europejskich, to już rozumie Unia Europejska i dobrze, żebyśmy tego archaicznego myślenia o wpływie nowych technologii na rynek pracy i wynoszenia tej elastyczności pod niebiosa nie utrwalali działaniami rządu, bo to są patologiczne zjawiska i one nie dotyczą świetnie wynagradzanych programistów, tylko dotyczą ludzi, którzy pracują w nisko wykwalifikowanych zawodach za bardzo skromne pieniądze i których zepchnięcie do pracy platformowej pozbawia elementarnej życiowej stabilności.</u>
          <u xml:id="u-8.1" who="#PoselAdrianZandberg">Mój apel jest wiec bardzo prosty: żeby rozmawiając o konsekwencjach technologii, takich jak sztuczna inteligencja, dla rynku pracy między innymi, ale przede wszystkim dla gospodarki, nie grzeszyć naiwnością. Będziemy chcieli tutaj, w ramach Komisji, w najbliższym czasie zorganizować dyskusję poświęconą tym zagrożeniom związanym ze stabilnością pracy, zagrożeniom, które także towarzyszą tym nowym technologiom. Będziemy chcieli zaprosić do tej dyskusji m.in. przedstawicieli związków zawodowych, bo myślę, że dobrze, żeby ten głos wybrzmiał, głos zorganizowanych pracowników, także tych, którzy mają doświadczenie w takich miejscach jak zakłady Amazona, z konsekwencjami tego typu wdrożeń dla funkcjonowania pracowników. Myślę, że już czas, żebyśmy o tym rozmawiali, bo ta perspektywa, która wyznacza średniookresowa strategia – 2027 r., wbrew pozorom nie jest to perspektywa odległa, to po pierwsze, a po drugie regulacji, które chronią tych, którzy są słabsi, w tym przypadku pracowników, potrzebujemy zdecydowanie szybciej. Takie jest moje głębokie przekonanie. Dziękuję.</u>
        </div>
        <div xml:id="div-9">
          <u xml:id="u-9.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo. Nie wiem, czy jest potrzeba zabrania głosu w sprawie tej „dopowiedzi” pana posła. Mamy jeszcze jedno pytanie.</u>
        </div>
        <div xml:id="div-10">
          <u xml:id="u-10.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Powiem tylko tyle, że apel został przyjęty. Po prostu.</u>
        </div>
        <div xml:id="div-11">
          <u xml:id="u-11.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję. Mamy jeszcze zgłoszenie do głosu pana Michała Kanownika, prezesa Związku Polska Cyfrowa. Bardzo proszę.</u>
        </div>
        <div xml:id="div-12">
          <u xml:id="u-12.0" who="#PrezesZwiazkuCyfrowaPolskaMichalKanownik">Dziękuję bardzo, panie przewodniczący. Mam dwa krótkie pytania, szanowni państwo. Po pierwsze, pani Justyna bardzo trafnie i słusznie wskazała tu potrzebę wsparcia rynku pracy specjalistami choćby z Białorusi. Ten program faktycznie świetnie się przyjął i sprawdza w praktyce. Mam pytanie, czy rząd rozważa możliwość poszerzenia tego programu choćby o specjalistów z Ukrainy w podobnym trybie, w jakim mają dziś możliwość rozpoczęcia pracy specjaliści z Białorusi? Bez zaplecza kadrowego faktycznie nie bardzo uda się wdrożyć, przyspieszyć strategii rozwoju nowych technologii.</u>
          <u xml:id="u-12.1" who="#PrezesZwiazkuCyfrowaPolskaMichalKanownik">Po drugie, na ile możliwe jest planowanie jakiegoś dopasowania, w większym stopniu, systemu kształcenia choćby w szkołach średnich do nowych technologii? Mamy chwalebny przykład akurat Technikum Robotyki w Łodzi, ale wiemy, że takich przykładów szkół średnich kształcących młodzież w kierunku nowych technologii przyszłości nadal jest niewiele i czy są planowane jakieś prace przygotowawcze, żeby system kształcenia na średnim poziomie uczniów wdrożyć już w szerszym znaczeniu tego słowa, szczególnie w regionach, które już dzisiaj specjalizują się w wykorzystywaniu nowych technologii i ściągają inwestycje w tym zakresie?</u>
          <u xml:id="u-12.2" who="#PrezesZwiazkuCyfrowaPolskaMichalKanownik">I ostatnie pytanko, natury pewnie bardziej do pana mecenasa. Patrząc na naszą strategię i na strategię unijną w zakresie sztucznej inteligencji, gdzie do tej pory ta kwestia etyczna była bardzo mocno uwydatniona, po wczorajszej decyzji Komisji Europejskiej widać, że oprócz tej kwestii etycznej bardzo mocno akcentuje się na poziomie unijnym kwestię cyberbezpieczeństwa w zakresie wdrażania strategii sztucznej inteligencji. Na ile ewentualnie, jak państwo postrzegacie potencjał, możliwości modyfikacji naszej strategii krajowej w tym zakresie, właśnie w większym stopniu uznającej kwestię bezpieczeństwa technologii sztucznej inteligencji w przyszłości? Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-13">
          <u xml:id="u-13.0" who="#PrzewodniczacyposelJanGrabiec">Mamy jeszcze zgłoszenie posła obecnego na sali. Pan Krzysztof Gawkowski. Panie przewodniczący, bardzo proszę o zadanie pytania.</u>
        </div>
        <div xml:id="div-14">
          <u xml:id="u-14.0" who="#PoselKrzysztofGawkowski">Panie przewodniczący, szanowni państwo, chciałbym dopytać o szczegóły celów krótkoterminowych, bo rozmawialiśmy też kilka miesięcy temu o potrzebie edukowania młodych ludzi, szczególnie w związku z sytuacją pandemiczną, rozwojem korzystania z nowoczesnych technologii, ale również z tym jak bardzo duża część życia edukacyjnego przeniosła się dziś do części zdalnej. Tutaj, w części trzeciej: „Zapewnienie bezpieczeństwa oraz budowanie zaufania społecznego” wśród narzędzi wskazano w pkt 1 – promowanie wiedzy o sztucznej inteligencji i jej wpływie na społeczeństwo przez media.</u>
          <u xml:id="u-14.1" who="#PoselKrzysztofGawkowski">Zdaję sobie sprawę, że to pytanie, które za chwilę zadam, nie dotyczy tylko strategii związanej ze sztuczną inteligencją, ale myślę, że powinniśmy pracować nad wieloobszarowymi działaniami, aby wprowadzić nauczanie już w szkole podstawowej, a najlepiej jeszcze w nauczaniu na poziomie klas I-III lekcje, w postaci zintegrowanego przedmiotu, dotyczące kształcenia z zakresu informatyki, cyberzagrożeń, sztucznej inteligencji i aplikacji. Najpóźniej powinno to się rozpocząć od klasy IV. Dlatego chciałem zapytać, czy przy tych pracach przy strategii konsultowaliście państwo jakieś takie działania z Ministerstwem Edukacji i Szkolnictwa Wyższego? To jest pierwsza rzecz.</u>
          <u xml:id="u-14.2" who="#PoselKrzysztofGawkowski">Druga rzecz. W tym opisie dotyczącym dzisiejszej Komisji, który przysłał nam z upoważnienia premiera pan minister Zagórski, jest wskazanie, że ministerstwa rozpoczęły już w roku 2020 pracę nad implementacją niektórych rozwiązań ze strategii do swoich obszarów, w tym przypadku do obszaru edukacji i chciałem zapytać czy coś wiadomo, że w roku 2021 toczą się prace nad rozszerzeniem programu nauczania w szkołach podstawowych, wprowadzania specjalnie dedykowanego, wskazanego przedmiotu, który zajmowałby się taką tematyką?</u>
          <u xml:id="u-14.3" who="#PoselKrzysztofGawkowski">I trzecie pytanie, też w tej części dotyczącej edukacji. Czy państwo zastanawiają się nad jakąś szeroką akcją promocyjną, która łączyła będzie w sobie, z jednej strony to o czym mówił pan prezes Kanownik, czyli te relacje cyberbezpieczeństwo – sztuczna inteligencja, a jednocześnie będzie zapewniała kształcenie wśród szerokiej gamy populacji społecznej? Sztuczna inteligencja i cyberbezpieczeństwo to są w zasadzie dwa tożsame obszary, które krocząc na rynku coraz bardziej się uzupełniają i ta wiedza powinna być, można powiedzieć, nawet na siebie nakładana. Tak przynajmniej powinniśmy społeczeństwu o tych problemach opowiadać. Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-15">
          <u xml:id="u-15.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję, panie pośle. Kto z państwa zechce odpowiedzieć na te pytania i uwagi?</u>
        </div>
        <div xml:id="div-16">
          <u xml:id="u-16.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Szanowni państwo, dziękuję za te pytania. Zacznę może od… Te pytania były trochę uzupełniające się, pana prezesa Kanownika i pana posła, więc może zacznę od kształcenia, bo to było jedno z zagadnień. Jeżeli chodzi o kształcenie, to chociażby taki program, który mieliśmy przyjemność ogłaszać z ministrem Zagórskim w ubiegły piątek, to akurat dotyczyło szkolnictwa wyższego i chodziło o to, że pilotażowo, z pięcioma uczelniami w naszym kraju zaproponowaliśmy w ramach programu „AI Tech” kształcenie w obszarze sztucznej inteligencji. Różne kierunki zostały otwarte dla nowych studentów w tych poszczególnych miastach. To jest tylko oczywiście początek, bo… Znowu wrócę – pilotażowo to nie dlatego, że żałujemy, żeby od razu to nie było wszędzie, tylko ze względu na to, aby rzeczywiście wypracować jak najlepszy projekt tak, żeby mógł on być skalowany na możliwie wszystkie uczelnie.</u>
          <u xml:id="u-16.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Szanowni państwo, pamiętajmy także tutaj, że przed nami kolejna perspektywa unijna, jeżeli chodzi o wydatki na cyfryzację i informatyzację oraz Krajowy Plan Odbudowy. Sumując te wszystkie środki, to będzie czterokrotnie więcej niż było w poprzedniej perspektywie, wydatków na samą cyfryzację. 20% wszystkich wydatków z tych środków to będą właśnie wydatki na cyfryzację i informatyzację. W związku z tym jest szalenie ważne, aby to jak najbardziej wykorzystać właśnie dla takich strategii, które są też uchwalane. Tutaj mówimy o strategii, a właściwie o polityce, ja to tak nazywam, o „Polityce Sztucznej Inteligencji”. Przed nami jest Program Rozwoju Kompetencji Cyfrowych, który zostanie uchwalony. Jeżeli chodzi o edukację, to także kompetencyjny program został uchwalony pod koniec ubiegłego roku, zresztą na tym samym posiedzeniu Rady Ministrów co „Polityka Sztucznej Inteligencji” i tam właśnie znalazło się szereg propozycji programowych do podstawy programowej.</u>
          <u xml:id="u-16.2" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Tu pan poseł wspominał o tym… o konkretnym przedmiocie. To jest ta kwestia… Nie skupiałabym się raczej i nie myślała o osobnym przedmiocie, bo to może być zagadnienie pod tytułem, aby każdy przedmiot, na przykład, zawierał w sobie… Bo tutaj mówimy o AI: zagrożenia AI, etyka AI, cyberbezpieczeństwo, a ja bym jeszcze dodała, chociażby walka z dezinformacją, czyli wyrobienie sobie takiej podstawowej wiedzy, która na przykład – proszę, dziękuję, przepraszam – to jest… Wiemy kogo wpuścić do domu, nieznajomych nie wpuszczamy, to tak samo nie wpuszczajmy niezweryfikowanych informacji.</u>
          <u xml:id="u-16.3" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Jest więc szereg obszarów, których potrzebujemy do zaadresowania kompetencji cyfrowych. Wiem, że tutaj mówiliśmy o sztucznej inteligencji i oczywiście stąd państwa pytania w tym zakresie, więc odpowiadając – oczywiście tak, Ministerstwo Edukacji i Nauki jest tutaj naszym, można powiedzieć, core-owym ministerstwem, z którym to ustalamy, bo oczywiście rozpoczyna to się rzeczywiście od samego początku, od nauczania wczesnoszkolnego. To tak naprawdę wtedy się zaczyna, aby te podstawy i podstawy w zakresie kompetencji cyfrowych, czyli niezbędnych, czyli tych… Bo tak jak teraz żyjemy w dwóch światach, świecie realnym, rzeczywistym, w którym możemy się spotykać i w tym równoległym, cyfrowym, który jest równoległy albo tak naprawdę mamy dwa w jednym. To zależy jak na to patrzeć, ale to jest dyskusja już nie na to spotkanie.</u>
          <u xml:id="u-16.4" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Natomiast jeszcze… Muszę sobie przypomnieć, co pan prezes Kanownik poruszył jako pierwsze zagadnienie. Proszę mi podpowiedzieć.</u>
        </div>
        <div xml:id="div-17">
          <u xml:id="u-17.0" who="#PrezesZwiazkuCyfrowaPolskaMichalKanownik">Może przypomnę – kwestia pracowników i poszerzenia programu z Białorusi na Ukrainę.</u>
        </div>
        <div xml:id="div-18">
          <u xml:id="u-18.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">No właśnie. Tutaj dokonujemy właśnie ewaluacji programu „Poland. Business Harbour”. Okazał się on faktycznie niekwestionowanym sukcesem. Tak można powiedzieć. To była też potrzeba chwili i trzeba to sobie również jasno powiedzieć i zostało to wdrożone ze względu… Pamiętajmy też o tym, jaka była sytuacja na Białorusi i że Park Nowoczesnych Technologii na Białorusi to było środowisko, które walczy z reżimem intensywnie, aktywnie, więc oni potrzebowali bardzo szybko pomocy, bo po prostu zagrożenie ich życia było i jest nadal równie wysokie. Dlatego ten program odpowiadał też na to, aby mogli przenieść do nas swoje kompetencje, a równocześnie niczego tutaj nie ujmując, zyskaliśmy na tym jako gospodarka. Firmy technologiczne, które przyjęły tych pracowników są nam bardzo wdzięczne, bo są też zaangażowane. Zawsze wszystkie projekty tworzymy we współpracy z biznesem, bo w technologiach i nowoczesnych technologiach informatyzacji inaczej się po prostu nie da. Oczywiście na podstawie tego sukcesu rozważamy to, aby móc otworzyć się na kolejne rynki i będziemy o tym informować państwa posłów oraz dzielić się naszymi spostrzeżeniami. Jesteśmy też otwarci na państwa spostrzeżenia, więc zdecydowanie tak. Branża technologiczna prosi i błaga o to, więc myślę, że trzeba będzie na to odpowiedzieć, ale oczywiście mądrze, tak żeby nie zagrażać naszemu rodzimemu rynkowi pracy.</u>
          <u xml:id="u-18.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Było jeszcze cyberbezpieczeństwo, ale tutaj może poproszę o odpowiedź pana mec. Kroplewskiego i uzupełnienie tych kwestii dotyczących cyberbezpieczeństwa.</u>
          <u xml:id="u-18.2" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Pełnomocnik ministra cyfryzacji do spraw społeczeństwa informacyjnego Robert Kroplewski:</u>
          <u xml:id="u-18.3" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Dziękuję bardzo. To też bardzo ważna kwestia, dziękuję za jej poruszenie. Ona jest wpisana w politykę AI, naszej polskiej i jest szczególnie wyeksponowana, to co powiedziałem wcześniej, jeżeli chodzi o politykę Unii Europejskiej. Mówi się o odporności systemów sztucznej inteligencji i na to teraz trzeba jednak tak spojrzeć – nie tylko jako cyberbezpieczeństwo w obszarze hardware-ów i algorytmów, ale odporności. Myślę, że to będzie nowa dziedzina, która będzie się rozwijać, bo systemy sztucznej inteligencji nie są jednak dzisiaj doskonałe. Mają swoje blackboxy i ich złamanie już stanowi problem i wpływa bezpośrednio na rezultaty, które mogą przynieść niesamowite szkody w przypadku ich połączenia sieciowego z otoczeniem, ale jednocześnie trzeba powiedzieć wprost, że sztuczna inteligencja może być bardzo użyteczna we wspieraniu wszelkich działań dotyczących cyberbezpieczeństwa. Natomiast trzeba wprost powiedzieć, że na razie jeszcze jej nie można zaufać. To nie jest 100%. To jest tylko rekomendacja, to jest tylko analityka, to jest pokazywanie korelacji, bardzo użyteczne, natomiast dalsze badania w tym kierunku powinny być prowadzone.</u>
          <u xml:id="u-18.4" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Z naszej strony, jeżeli chodzi o Kancelarię Prezesa Rady Ministrów, ale bardziej ministra cyfryzacji, zaangażowany w obszar cyberbezpieczeństwa jest NASK i tam odpowiednie próby są podejmowane. Zakładam, że wątki dotyczące odporności systemów sztucznej inteligencji będą tam rozwijane i takie były nasze zamiary w przypadku redukowania polityki AI.</u>
          <u xml:id="u-18.5" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Pozwolę sobie może jeszcze wrócić do tematu edukacji, bo on jest o tyle tutaj interesujący, że może warto zwrócić uwagę, że my w polityce AI stawiamy nie tylko na rozwijanie umiejętności technicznych, ale właśnie uniwersalnych, bo sztuczna inteligencja to nie jest tylko inżynieria, to nie jest tylko modelowanie, ale to jest przede wszystkim wiedza, która stanowi zasób do modelowania, czyli ta wiedza kontekstowa. Nie na darmo sztuczna inteligencja jest dziedziną nauki, którą nazywamy kognitywistyką. Jeżeli chodzi o nasze przyszłe pokolenia, szczególnie właśnie od podstaw należałoby tak programy nowe wytwarzać, aby dzieci zachęcać do myślenia kontekstowego i to absolutnie idzie w parze, i z wolnością słowa, która jednocześnie jest podstawą do kreatywności, i jednocześnie z walką wobec dezinformacji, czyli rozumieniem tego co przychodzi do nas, a więc głębokim zrozumieniem poznania. Na to byśmy stawiali.</u>
          <u xml:id="u-18.6" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Ministerstwo Edukacji Narodowej uzgadniając z nami projekt „Polityki AI” też na to postawiło. Myślę, że jako Polska jesteśmy tutaj wyjątkowi w pejzażu takich strategii na świecie. Jedna ze strategii, którą znamy, to jest dokument amerykański, który jeszcze dwa lata temu, co ciekawe bardzo, uznał, że jest zagrożenie dla talentów w Stanach Zjednoczonych, jeżeli chodzi o przemysł tamtejszy, więc należy stworzyć nowe systemy edukacyjne i postawiono właśnie na uniwersalną edukację, jeszcze do tego stopnia spersonalizowaną. Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-19">
          <u xml:id="u-19.0" who="#PrzewodniczacyposelJanGrabiec">Bardzo dziękuję za te odpowiedzi. Mamy jeszcze jedno zgłoszenie do dyskusji. Pani Joanna Karczewska ze Stowarzyszenia ISACA z Warszawy. Czy się słyszymy? Bardzo proszę.</u>
        </div>
        <div xml:id="div-20">
          <u xml:id="u-20.0" who="#CzlonekStowarzyszeniaISACAWarszawaJoannaKarczewska">Dzień dobry. Mam następujące pytania. Ponieważ ja reprezentuję audytorów, szczególnie audytorów systemów informatycznych, chciałam zwrócić uwagę na zapis w „Polityce AI”, gdzie jest mowa o wypracowaniu metod niezależnego audytowania implementacji sztucznej inteligencji. To jest cel wyznaczony do 2023 r. Otóż, to wszystko już jest, to jest do wykorzystania natychmiast, tym bardziej, że już się pojawiają pierwsze projekty sztucznej inteligencji czy pierwsze wdrożenia. Wiodące organizacje światowe, czyli Institute of Internal Auditors oraz moje Stowarzyszenie ISACA już w 2018 r. opublikowały stosowne wytyczne audytu. Są też standardy audytu, które definiują niezależność, więc to wszystko jest już do wykorzystania. Nie trzeba czekać do 2023 r. tak jak zostało to wyznaczone w polityce AI.</u>
          <u xml:id="u-20.1" who="#CzlonekStowarzyszeniaISACAWarszawaJoannaKarczewska">Druga kwestia. Zaznaczono też, że w sektorze publicznym wdrażane będą praktyczne mechanizmy chroniące osoby fizyczne przed naruszaniem ich praw i wolności oraz wypracowane zostaną reguły przejrzystości i odpowiedzialności za wykorzystanie algorytmu przez administrację publiczną. Będą więc przede wszystkim audytowane owe mechanizmy kontrolne oraz rozliczalność. Jak wiemy, w edukacji od roku, czyli od wprowadzenia zdalnego nauczania, dane uczniów i nauczycieli płyną szerokim strumieniem do różnych systemów sztucznej inteligencji. Także w ZUS zapowiedziano już wykorzystanie sztucznej inteligencji do liczenia świadczeń, chociaż dzisiaj są problemy z uzyskaniem informacji jak zostało dane świadczenie wyliczone. Zatem pytanie: kiedy pojawią się owe zapowiadane mechanizmy, tym bardziej, że jest mowa też o ocenie skutków algorytmów? Chciałam zwrócić uwagę na analogię, czyli ocenę skutków dla ochrony danych wymaganą przez RODO i skutek braku takich ocen. Wiemy jakie są, chociażby na przykładzie wycieku, o którym mowa od dwóch dni. A zatem – kiedy pojawią się zapowiadane mechanizmy?</u>
          <u xml:id="u-20.2" who="#CzlonekStowarzyszeniaISACAWarszawaJoannaKarczewska">Trzecia kwestia. Agencja Praw Podstawowych w swoim raporcie „Getting the Future Right. Artificial intelligence and fundamental rights” zaznacza, że warto do nadzoru wykorzystać m.in. urzędy ochrony danych osobowych urzędy ochrony konsumentów i rzeczników praw obywatelskich, czyli ombudsmanów. Czy tak jest to też przewidziane w Polsce?</u>
          <u xml:id="u-20.3" who="#CzlonekStowarzyszeniaISACAWarszawaJoannaKarczewska">I kolejne pytanie, które mam – w polityce AI jest wyznaczony cel: zwiększenie zdolności państwa do wykorzystania sztucznej inteligencji w sytuacjach kryzysowych w celu prognozowania zagrożeń i wspierania decyzyjności, a także w sytuacjach wymagających interwencji lub wsparcia ze strony administracji różnego szczebla. Jak wiemy, mamy obecnie bardzo poważną sytuację kryzysową. Czy są już wykorzystywane systemy sztucznej inteligencji do wsparcia działań rządu w czasach pandemii? Dziękuję.</u>
        </div>
        <div xml:id="div-21">
          <u xml:id="u-21.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo za te pytania. Mamy jeszcze pytanie ze strony eksperta Polskiej Izby Informatyki i Telekomunikacji, pana Macieja Majewskiego. Czy się słyszymy? Proszę o zadanie pytania.</u>
        </div>
        <div xml:id="div-22">
          <u xml:id="u-22.0" who="#EkspertPolskiejIzbyInformatykiiTelekomunikacjiMaciejMajewski">Szanowni państwo, ja się trochę boję, że w tym natłoku pytań, tematów, różnych wielowymiarowych podejść bardzo proste rzeczy mogą zostać sprowadzone gdzieś na plan dalszy. Mam konkretne pytanie dotyczące priorytetów w ochronie zdrowia. My wytwarzamy systemy dla ochrony zdrowia, to są systemy transakcyjne, natomiast dostrzegamy ogromny potencjał w bardzo prostych kwestiach automatyzacji, kwestiach uzupełniania rekordów medycznych, które stosunkowo proste, być może, przepraszam za wyrażenie, niezbyt seksowne systemy obdarzone pewną inteligencją mogłyby odciążać lekarzy i personel pomocniczy. Czy w strategii są tu przewidziane jakieś konkrety typu finansowanie tego rodzaju rozwiązań przy pomocy dodatkowych funduszy? Być może NCBiR, być może jeszcze jakieś inne rzeczy? Także jeżeli są jakieś konkretne priorytety w tym zakresie ustalone, to bardzo proszę o wyjaśnienie. Dziękuję.</u>
        </div>
        <div xml:id="div-23">
          <u xml:id="u-23.0" who="#PrzewodniczacyposelJanGrabiec">I jeszcze pytanie pana posła Krzysztofa Gawkowskiego. Bardzo proszę, panie przewodniczący. Jak na razie jest to ostatnie pytanie zgłoszone w dyskusji.</u>
        </div>
        <div xml:id="div-24">
          <u xml:id="u-24.0" who="#PoselKrzysztofGawkowski">Mnie swoją wypowiedzią zainspirował pan mecenas i chciałem wrócić do tego, co pan mówił o problemach ze sztuczną inteligencją, bo w strategii, niestety, nie ma wielu elementów, które powinny być takim przewodnikiem myślenia nie tylko o tym, co w roku 2023, ale co w roku 2033. Chciałbym zwrócić uwagę i też poprosić o odpowiedź, bo wiele razy słyszałem i premiera, i pana ministra Zagórskiego na Komisji, którzy mówili o sztucznej inteligencji z perspektywy szans, ale i zagrożeń, i o tych zagrożeniach chciałem powiedzieć.</u>
          <u xml:id="u-24.1" who="#PoselKrzysztofGawkowski">Badania prowadzone na świecie i dyskusja, która się toczy już gdzieś od dekady na temat sztucznej inteligencji ogniskuje się na problemie, co zrobimy jako społeczeństwo, co zrobimy jako administratorzy, kiedy pojawi się coś takiego jak superinteligencja, a więc kiedy zrobimy krok dalej? Wszyscy mówią, że od sztucznej inteligencji do superinteligencji przejdziemy w procesie około 100 razy szybszym, czyli nie będziemy na to długo czekali. Superinteligencja zaś to obszar, w którym ta inteligencja, którą wymyślimy jako coś, co będzie dokonywało korekty życia człowieka będzie się mogła sama kształcić.</u>
          <u xml:id="u-24.2" who="#PoselKrzysztofGawkowski">Dlaczego o to pytam? Bo warto zwracać uwagę na takie elementy braku poczucia bezpieczeństwa dla człowieka, o których mówił chociażby Stephen Hawking wskazując, że my wiele czasu spędzamy studiując historię, ale mało czasu spędzamy myśląc nad przyszłością inteligencji i w tym obszarze chciałbym zapytać o dwa elementy polskiej strategii. Po pierwsze, czy państwo dostrzegacie potrzebę powołania instytutu badawczego, takiego który będzie miał charakter państwowy, narodowy, bez względu na to, jak władza będzie go chciała nazwać? Czy będzie to jednak taki instytut badawczy, który będzie miał wyłącznie charakterystykę opieki nad obszarem sztucznej inteligencji? Nie mówię, że to ma być edukacja ani że to mają być jakieś prace badawcze. Uważam natomiast, że w państwie, które rości sobie, według tej strategii, która jest przedstawiona, prawo do miana jednego z tych, które prowadzą najbardziej zaangażowane prace, jeśli chodzi o sztuczną inteligencję albo przynajmniej roszczą sobie prawa, żeby takimi być, to taki instytut państwowy byłby nie tylko miejscem, ale dawałby również szansę, że te wszystkie założenia będą w jakimś miejscu spinane, a nie będzie to tylko Ministerstwo Cyfryzacji i jak władza się zmieni, to i strategia będzie się zmieniała. To po pierwsze.</u>
          <u xml:id="u-24.3" who="#PoselKrzysztofGawkowski">Po drugie, jest wskazane w strategii, jeśli chodzi o ten obszar rozwoju i niebezpieczeństw sztucznej inteligencji, że pracowaliście państwo nad tym ze stu kilkudziesięcioma fachowcami. No to, skoro taka praca się toczyła, były eksperckie komentarze i te obszary analityki sztucznej inteligencji oraz wykorzystania algorytmów są pracami w różnych miejscach badawczych w całej Polsce, to może by było warto tych wszystkich ludzi zaangażować w dłuższej perspektywie i zaproponować im współpracę, która będzie badawcza na poziomie państwa? To uzupełnia też moje pierwsze pytanie, bo jest taka obawa, wynikająca ze strategii, że my gospodarujemy rzeczami, o których wszyscy już wiedzą i mówią na świecie, i to nie jest nic nowego. Sami państwo w strategii wskazujecie, że 46% tej bazy badawczej dotyczącej analityki danych jest w Polsce wykorzystywanych i bardzo dobrze, niech ten współczynnik rośnie, ale im więcej będziemy tych danych angażowali, im więcej będziemy tych algorytmów wykorzystywali i im mniej będziemy zastanawiali się, jakie są tego konsekwencje, to wtedy taki instytut mógłby pukać od spodu do tych, którzy mówią: sztuczna inteligencja zawsze na tak, pokazując, że zagrożenia również mogą przynieść nam takie myślenie, że są jakieś granice odpowiedzialności, bo ta odpowiedzialność powinna nam zawsze towarzyszyć przy tworzeniu takiej strategii. Dziękuję.</u>
        </div>
        <div xml:id="div-25">
          <u xml:id="u-25.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję serdecznie, panie pośle i bardzo proszę o udzielenie odpowiedzi na te pytania, które padły.</u>
        </div>
        <div xml:id="div-26">
          <u xml:id="u-26.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Może ja zacznę. Od końca – panie pośle, usłyszałam tutaj kilka postulatów i wątpliwości, że jak będzie się zmieniał rząd, będzie się zmieniała strategia. Ja powiem gorzej: ona się będzie zmieniała szybciej i będzie się zmieniała w ramach tego rządu. Dlaczego? Bo właśnie, i tu wrócę do nowoczesnego uchwalania polityk publicznych, my nie możemy ustalić i przewidzieć co będzie w 2033 r. Proszę państwa, my nie wiemy co będzie w nowoczesnych technologiach za rok, a co dopiero zaplanować, zapisać… Nawet jak byśmy się spotkali z najmądrzejszymi osobami na całym świecie, to i tak nie ustalilibyśmy tego ani nie wpisali w ten dokument. To byłoby bardzo nieodpowiedzialne podejście z naszej strony. Oczywiście mamy perspektywę wizyjną po 2027 r. Tak praktycznie można powiedzieć, bo rok 2027, to już można mówić o wizji, bo w takim tempie… Na przykład podam taką statystykę: teraz informatyzacja w ciągu roku pandemicznego COVID, co tam roku, w ciągu 9 miesięcy firmy wykonały skok, mówiły o skoku, który normalnie planowały wykonać w ciągu 5 lat, jeśli chodzi o jakieś nowoczesne zmiany w firmach, a wykonały to w ciągu 9 miesięcy. My mówimy naprawdę o nieprzewidywalnych zmianach i dlatego to co możemy przewidzieć jest oczywiście zapisane, a polityka AI jest ustalona jako ramy, które są ramami, w które można się wpisywać. Jeżeli będzie potrzeba modyfikacji tych ram, trzeba będzie je przeprowadzić i inaczej ukształtować.</u>
          <u xml:id="u-26.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Padła tutaj propozycja instytutu. Instytuty to ludzie i tutaj kwestia, czy to będzie dany urząd, czy… Osobiście mogę powiedzieć, że jestem przeciwna jakimś nowym urzędom, bo to jest kolejny urząd i też mówicie, państwo posłowie, mogą być inne postulaty, żeby nie rozbudowywać administracji – no właśnie. Tak więc to co tworzymy, to są różne zespoły, do których… No właśnie, 180 osób, blisko 200 osób było zaangażowanych w prace nad polityką AI, nad tą treścią, z którą mieli państwo przyjemność się zapoznać. Natomiast oczywiście, tak jak powiedziałam, blisko 500 osób zapisało się do grupy roboczej, do zespołu NGS-owo-biznesowego, który cały czas jest z nami na pokładzie. My nie mamy takiej odwagi, żeby samemu to prowadzić. Mówię specjalnie o odwadze. Nie, że jesteśmy zaraz tchórzami, tylko po prostu byłoby to nieodpowiedzialne, gdybyśmy sami stwierdzili – dobra, posłuchaliśmy was i już teraz sami sobie tutaj będziemy wdrażać tę politykę sztucznej inteligencji. W żadnym razie nie. Serdecznie zapraszam, jeżeli państwo mają jakichś ekspertów, którzy mogliby się włączyć. Pierwsza rekrutacja minęła, ale tak naprawdę będziemy otwierać kolejne spotkania, można się na nie zapisywać. Jak najbardziej tak i serdecznie do tego zapraszam.</u>
          <u xml:id="u-26.2" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Zaraz oddam głos mec. Kroplewskiemu, tylko jeszcze jedna rzecz. Było pytanie dotyczące wydatków na zdrowie. Oczywiście tak, są instrumenty, które będą kontynuowane, rozwijane, możliwe, że powstaną także nowe, natomiast jest zaplanowane i już trwają, możecie państwo się zapoznać, chociażby z jednym z ostatnich naszych projektów wydatkowych na obszar zdrowotny i technologii przełomowych. To jest INFOSTRATEG, do którego zapraszam, żeby się zapoznać. Firmy i przedsiębiorstwa, które mają pomysły, to mogą oczywiście tutaj aplikować, a takie instrumenty będą wyłącznie rozszerzane. Jak państwo zresztą wiedzą, to dopiero programy. Poszczególne projekty, to takich… Teraz planujemy ramy, tak? KPO, ramy kolejnej perspektywy, natomiast poszczególne projekty będą jeszcze rozwijane i są możliwe cały czas do ogłaszania, i do projektowania. To tyle, jeżeli chodzi ad vocem do pytania i proszę o uzupełnienie jeszcze pana mec. Kroplewskiego.</u>
          <u xml:id="u-26.3" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Pełnomocnik ministra cyfryzacji do spraw społeczeństwa informacyjnego Robert Kroplewski:</u>
          <u xml:id="u-26.4" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Dziękuję za taką możliwość. Zaczynając może od końca, od ostatniego pytania, chciałbym zwrócić uwagę na to, że w polityce AI przewidzieliśmy w celach średnioterminowych powołanie Wirtualnego Instytutu Badawczego dedykowanego właśnie sztucznej inteligencji. To jest pomysł, który pojawił się w grupach roboczych już dwa lata temu i został uznany w wyniku uzgodnień. To jest oczywiście nawiązanie do pewnego wzorca, który pojawił się w Kanadzie, takiej jednostki, która się nazywa CIFAR. To był pierwszy wirtualny instytut, właśnie po to, żeby nie powoływać nowych uczelni, nowych urzędów, zresztą urząd tutaj jest niewskazany. Należy mieć ośrodek zwinny, ośrodek swobodnej myśli, ośrodek, który w sposób nieskrępowany dokonuje analizy wszelkich wyzwań badawczych w obszarze humanistycznym, obszarze technicznym, obszarze biznesowym, również w obszarze geopolitycznym, bo co by nie powiedzieć, sztuczna inteligencja właśnie poprzez połączenie z siecią wpływa bezpośrednio na zjawiska globalnych łańcuchów wartości i tutaj chciałbym to też wyraźnie podkreślić. Taki instytut będzie powoływany i jednocześnie nasza praca w grupie Globalnego Partnerstwa dla Sztucznej Inteligencji już jest powiązana z ideą wirtualnego instytutu. Zaangażowaliśmy tam ekspertów z dziedzin sztucznej inteligencji i pracujemy razem z przedstawicielami Kanady, Japonii i tych innych krajów, które wskazaliśmy.</u>
          <u xml:id="u-26.5" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Natomiast wracając do spraw audytu, bardzo przepraszam, ale pozwolę się nie zgodzić, że mamy już gotowe rozwiązania. Oczywiście mamy te, które mamy, ale one, naszym zdaniem, nie odpowiadają rzeczywistości, którą chcemy ukształtować. Pragnę zwrócić uwagę, że jeszcze w 2017 r. świat obiegła rywalizacja na standardy techniczne i standardy etyczne. To była nowa rywalizacja. Standardy etyczne wobec sztucznej inteligencji miały okazać się tak samo proste jak standardy techniczne i ten, kto pierwszy postawiłby krok na rynku zdobywałby całość tego rynku w obszarze globalnym. Ta konkurencja spowodowała właśnie ożywienie różnych aktorów rynku, który mógłby być dedykowany do zastosowań sztucznej inteligencji, m.in. UNESCO, OECD, po to, aby wygenerować pewne wspólne, uzgodnione globalnie, transgranicznie, zasady i ramy dla etycznej sztucznej inteligencji, ale również ramy dla standardów sztucznej inteligencji. Komisja Europejska jeszcze nie zakończyła pracy grup ekspertów w obszarze właśnie standardów, technicznych i nietechnicznych do sztucznej inteligencji. I muszę państwa niestety też zmartwić, że standardy, które zostały zidentyfikowane dotyczą tylko obszarów technicznych i są blokerami w rozwoju innowacji, gdyż są reprezentowane tylko poprzez niektóre organizacje, które wzajemnie ze sobą rywalizują. Obszar nadzorczej roli człowieka w standardach, które dziś funkcjonują, nie został w ogóle odnotowany, czyli należy uzupełnić ten obszar z uwagi na to, że budujemy ramy, tak jak powiedziałem, godnej zaufania sztucznej inteligencji i one są na tyle poważne, że to są standardy nowe. W obszarze etycznym, obszarze technicznym i organizacyjnym takie standardy nie zostały odnotowane i w związku z tym audyt się nie uda. Uda się tylko cząstkowo, wobec tego, co jest przedmiotem audytu i ewentualnie procedurą audytu, ale ta procedura audytu w tej chwili jest niekompletna i wymaga uzupełnienia. Stąd stawiamy sobie taki cel, aby wypracować kompletne ramy dla walidacji systemów sztucznej inteligencji i aby ten audyt umożliwić. Sztuczna inteligencja w zastosowaniu i przed zastosowaniem powinna oczywiście podlegać audytowi, żeby móc uznać czy zachowania, które mają tam miejsce są transparentne, czy jest przypisana procedura odpowiedzialności, czy nie szkodzą, czy są możliwe wyjaśnienia procesów przyczynowo-skutkowych, czy jedynie możemy zaufać temu co powiedziałem na samym początku, czyli korelacjom.</u>
          <u xml:id="u-26.6" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Drodzy państwo, jak pani minister wspomniała, nasza polityka jest właśnie bardzo zwinna i próbujemy rozmawiać z każdą grupą interesariuszy. Rozmawiamy też z całym światem, co starałem się powiedzieć, od 2017 r. I to nie jest tak, że każdy może, tylko żeby dojść do grona grupy ekspertów w ramach High Level Expert Group czy w ramach UNESCO, czy w ramach Rady Europy, czy wreszcie w ramach tego Globalnego Partnerstwa, o którym wspomniałem, polskie wysiłki zostały wcześniej dostrzeżone. Tam nie jest każdy i nie każdy kraj miał swojego eksperta. W tym sensie integrujemy wiedzę z różnych stron, zasilamy się wzajemnie – grupy nas, my grupy i próbujemy odpowiadać w związku z tym na przyszłość.</u>
          <u xml:id="u-26.7" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Jeżeli dobrze pamiętam, pytanie dotyczyło jeszcze budowy pewnego centrum, które by walidowało zastosowanie sztucznej inteligencji w administracji publicznej. Stawiamy sobie to za cel. To też jest precedensowy zapis w pejzażu światowych strategii. Ten zapis pochodzi od NGO-sów, z którymi przeprowadziliśmy na ten temat debatę i celowo uznaliśmy taką potrzebę za zasadną. Chcemy tego typu centrum stworzyć i przede wszystkim stworzyć zasady współpracy tego centrum. Teraz, w ramach grup roboczych, będziemy kształtować ramy i sposoby. Aktorzy, którzy zostali tu wymienieni, zakładam, że powinni być uwzględnieni. Rzecznicy, czy praw dziecka, czy rzecznik praw obywatelskich są tutaj jak najbardziej właściwą jednostką, która mogłaby wskazać swojego przedstawiciela do prac czy to kreatywnych, jeżeli chodzi o stworzenie tego typu instrumentu, czy później już do prac bieżących. Oczywiście bardzo ważna jest tutaj też rola Urzędu Ochrony Konkurencji i Konsumentów. Konsumenci to także są nie tyle aktorzy bezpośrednio gry rynkowej, natomiast podmioty, których dotyka sztuczna inteligencja i powinni mieć zapewnione warunki dla swoich reklamacji, wyjaśnienia i zrozumienia, że pracujemy ze sztuczną inteligencją.</u>
          <u xml:id="u-26.8" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">W okresie pandemicznym zastosowaliśmy sztuczną inteligencję w wymiarze chatbotów. Z tego co mi wiadomo, są różne race prowadzone, natomiast nie było bezpośrednich zastosowań sztucznej inteligencji dla celów analityki zachowań pandemicznych. Jeżeli chodzi o Ministerstwo Zdrowia, to wiem, że dane na temat tego co zachodzi w obszarze pandemicznym są analizowane przez algorytmy, ale tutaj są lepsi eksperci od nas i dzięki temu mogą prognozować jakieś dalsze zjawiska, po prostu jakieś predykcje.</u>
          <u xml:id="u-26.9" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Nie wiem, czy odpowiedziałem na wszystkie pytania. W razie czego zapraszam do rozmowy w ramach prac ministerialnych. Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-27">
          <u xml:id="u-27.0" who="#PrzewodniczacyposelJanGrabiec">Bardzo dziękuję. Ostatnie pytanie, które do nas spłynęło pochodzi z Polskiej Izby Informatyki i Telekomunikacji. Pan Sebastian Orzechowski, ekspert izby. Bardzo proszę o zadanie pytania.</u>
        </div>
        <div xml:id="div-28">
          <u xml:id="u-28.0" who="#EkspertPolskiejIzbyInformatykiiTelekomunikacjiSebastianOrzechowski">Witam serdecznie, z tej strony Sebastian Orzechowski. Miło mi uczestniczyć w tym spotkaniu. Pytanie napisałem na czacie, ale w takim razie je odczytam. Mam następujące pytanie: czy jest planowane, w ramach tej strategii, uruchomienie i wdrożenie programu transformacji administracji publicznej, która by właśnie wykorzystywała technologię RPA, czyli Robotic Proces Automation, sztucznej inteligencji i uczenia maszynowego, która miałaby na celu zwiększenie efektywności poszczególnych podmiotów i jednostek administracji publicznej, optymalizację kosztów oraz reskilling osób zatrudnionych w administracji? Dziękuję uprzejmie.</u>
        </div>
        <div xml:id="div-29">
          <u xml:id="u-29.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-30">
          <u xml:id="u-30.0" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Już odpowiadam. Dziękuję za to pytanie, ono jest oczywiście bardzo słuszne. Jednocześnie…Powiem teraz też o takiej idei, która przyświeca nie tylko w administracji, ale myślę, że w szczególności w biznesie i trochę, tak można powiedzieć, że my to ściągamy. Oczywiście szkolenia jak najbardziej i tutaj mamy planowany Program Rozwoju Kompetencji Cyfrowych, o którym już wspominałam i jak tylko będziemy gotowi z konsultacjami, to zaprosimy oczywiście i proszę szanowne gremium także o to, aby rozesłać ten dokument, możliwie do każdego kto, nomen omen, ma właśnie kompetencje do tego, żeby odpowiedzieć na Program Rozwoju Kompetencji Cyfrowych po to, żeby też wnosili swoje uwagi. Zapraszamy do współpracy.</u>
          <u xml:id="u-30.1" who="#PelnomocnikPrezesaRadyMinistrowdosprawGovTechJustynaOrlowska">Natomiast nie tylko szkolenia. Szkolenia oczywiście tak i tutaj chociażby ogłoszony program SZPoN, który dotyczy tego jak umożliwić e-learningi w administracji publicznej, czyli taka dedykowana, bezpieczna platforma. To jest narzędzie jak to robić, jak to robić skutecznie i szybciej, ale też, żeby dać możliwość, że jeżeli tych kompetencji nie posiadamy w danej jednostce, bo na przykład rozumiem, że przykładowo jestem ekspertem od zdrowia, ale niekoniecznie muszę się znać na nowoczesnych technologiach, nie takie jest moje wykształcenie, natomiast chciałbym wdrożyć te nowoczesne technologie i nie wiem jak. Właśnie po to powołaliśmy, jesteśmy my, w ramach Centrum GovTech mamy specjalną, dedykowaną komórkę konsultingową, wewnętrzny konsulting dla administracji. Jesteśmy w administracji i dla administracji, aby pomagać, wspierać się we wdrażaniu nowoczesnych technologii, ale także czasem w rozwiązywaniu prostszych kwestii, jeżeli się okaże, że po prostu nie ma potrzeby stosowania superzłożonych technologii, kosztownych, a może się okaże, że da się coś rozwiązać szybciej, czyli dodatkowo dajemy taki element, że jeszcze dajemy potencjalne oszczędności, by ktoś mógł zakładać, gdyby został sam zostawiony sobie, mógł zakładać, że trzeba ogłosić przetarg na wdrożenie sztucznej inteligencji, a okaże się, że to by było po prostu strzelanie z armaty do małego wróbelka. W związku z tym, my właśnie służymy temu, żeby… Jesteśmy po prostu taką komórką i jeżeli jeszcze ktoś o nas nie słyszał, nie tylko w administracji rządowej, tylko także w administracji lokalnej, bo samorządy też są naszymi klientami, to zapraszamy serdecznie. Jesteśmy właśnie po to, żeby pomóc i wspierać. To jest nasza idea i służy ona temu, żeby nie zawsze… Nie zawsze te kompetencje musimy mieć na pokładzie. Pamiętajmy o tym, że jesteśmy jedną firmą pod tytułem Państwo Polskie i możemy się wzajemnie wspierać i po prostu podnosić. To są efekty synergii, które powinny być egzekwowane i stosowane.</u>
        </div>
        <div xml:id="div-31">
          <u xml:id="u-31.0" who="#PrzewodniczacyposelJanGrabiec">Dziękuję bardzo za odpowiedzi na pytania. Nie widzę więcej zgłoszeń, w związku z tym zamykam dyskusję. Serdecznie dziękuję wszystkim członkom Komisji za udział w dyskusji, dziękuję przedstawicielom kancelarii premiera, naszym gościom, za ożywioną dyskusję.</u>
          <u xml:id="u-31.1" who="#PrzewodniczacyposelJanGrabiec">Tym samym wyczerpaliśmy dzisiejszy porządek dzienny. Zamykam posiedzenie Komisji. Dziękuję państwu bardzo.</u>
        </div>
      </body>
    </text>
  </TEI>
</teiCorpus>