text_structure.xml
66.6 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
<xi:include href="PPC_header.xml" />
<TEI>
<xi:include href="header.xml" />
<text>
<body>
<div xml:id="div-1">
<u xml:id="u-1.0" who="#GrzegorzBernardNapieralski">Szanowni państwo, ponieważ mam aż trzy strony zaproszonych gości, to wymienię tylko tytuły czy nazwy instytucji, żebyśmy nie zmarnowali całej podkomisji na wyczytywanie, ale bardzo cieszymy się, że jesteście państwo z nami, że chcecie uczestniczyć w tej podkomisji. Myślę, że to bardzo istotna sprawa dla całego tematu. Bardzo ważne jest dla nas zainteresowanie wszystkich środowisk, które reprezentujecie i bardzo za to dziękujemy.</u>
<u xml:id="u-1.1" who="#GrzegorzBernardNapieralski">Ministerstwo Cyfryzacji, które reprezentuje pan Krzysztof Gawkowski wicepremier Rady Ministrów oraz minister cyfryzacji, Urząd Komunikacji Elektronicznej, Urząd Ochrony Konkurencji i Konsumentów, Urząd Ochrony Danych Osobowych, Państwowa Inspekcja Pracy, Instytut Łączności Państwowego Instytutu Badawczego, Wydział Prawa i Administracji Uniwersytetu Łódzkiego, Centrum Europejskie Uniwersytetu Warszawskiego, Polskie Towarzystwo Informatyczne, Izba Gospodarki Elektronicznej, Polska Izba Komunikacji Elektronicznej, Polska Izba Radiodyfuzji Cyfrowej, Związek Pracodawców Branży Internetowej IAB Polska, Konfederacja Lewiatan, Federacja Przedsiębiorców Polskich, Stowarzyszenie Przyjazna Gospodarka, Biuro Pracodawców Medycyny Prywatnej, Komisja Krajowa NSZZ „Solidarność”, Polska Izba Książki, THINKTANK, Stowarzyszenie ELKApw – przepraszam, jeżeli coś źle przeczytałem, proszę wybaczyć – ITwiz i to wszystko. Witam jeszcze Związki Zawodowe OPZZ, bardzo przepraszam, dziękuję za obecność. Czyli dzisiaj na sali mamy dwie największe centrale związkowe. Bardzo nas to cieszy.</u>
<u xml:id="u-1.2" who="#GrzegorzBernardNapieralski">Szanowni państwo, porządek dzisiejszego posiedzenia przewiduje w punkcie pierwszym prezentację aktualnego stanu wiedzy na temat sztucznej inteligencji. W drugiej części mamy dyskusję na temat projektu nowelizacji ustawy o związkach zawodowych, od razu dopowiem, że to dotyczy algorytmów, jeżeli chodzi o pracowników. Czy są uwagi do takiego porządku dziennego obrad? Nie widzę. Przechodzimy do porządku obrad.</u>
<u xml:id="u-1.3" who="#GrzegorzBernardNapieralski">Szanowni państwo, jeżeli pozwolicie to cztery zdania przed panem premierem. Sztuczna inteligencja to coś, co tak naprawdę zmieni nasz świat bardzo gwałtownie i na zawsze. Wszyscy, którzy myśleli, że internet i komputery zmienią świat…oczywiście ten świat się zmienił, ale jeszcze nie wiemy, jak zmieni życie sztuczna inteligencja. Na pewno to będzie o wiele większy przełom niż to, co wydarzyło się w erze internetu i w erze komputerów. Polska ma tutaj do odegrania bardzo ważną rolę. Rewolucję sztucznej inteligencji można przyrównać do rewolucji przemysłowej, tylko że Polska w tamtym czasie niestety nie była w awangardzie tych zmian, byliśmy pod zaborami, musieliśmy tak naprawdę walczyć o swoją niepodległość i te przemiany naturalnie były dla nas bardzo trudne. Dziś nasza sytuacja polityczna, geopolityczna, gospodarcza absolutnie jest zmieniona i naprawdę możemy być liderem tych pozytywnych zmian. Mamy duży potencjał i wszystkie narzędzia, które są nam potrzebne. Po pierwsze wspaniale przygotowanych ludzi, dobry klimat, w Polsce cały czas i znów chce nam się zmieniać, do tego mamy infrastrukturę, więc moim zdaniem jesteśmy na to bardzo dobrze przygotowani.</u>
<u xml:id="u-1.4" who="#GrzegorzBernardNapieralski">Chciałbym też podziękować panu premierowi Krzysztofowi Gawkowskiemu, który tak naprawdę jako pierwszy wyszedł z inicjatywą, aby po pierwsze poważnie o tym dyskutować, po drugie powołał specjalny zespół, który w ministerstwie będzie zajmował się tylko i wyłącznie tematem sztucznej inteligencji. Musimy pamiętać, że sztuczna inteligencja to oczywiście coś, co będzie nam dawało wielkie szanse, ale może też stwarzać zagrożenia. Rolą podkomisji, w ogóle rolą tej dyskusji w parlamencie, którą zaplanowaliśmy jest to, żebyśmy wspólnie wypracowali wszystkie narzędzia, tak aby to, co będzie się budować w naszym kraju, służyło nam ludziom i abyśmy my jako Polska naprawdę stali się liderem tych zmian.</u>
<u xml:id="u-1.5" who="#GrzegorzBernardNapieralski">Jeszcze raz dziękuję panu premierowi i od razu oddaję głos. Proszę bardzo, panie premierze.</u>
<u xml:id="u-1.6" who="#KrzysztofGawkowski">Chciałbym bardzo serdecznie podziękować panu przewodniczącemu Napieralskiemu i przewodniczącemu Komisji za to, że inicjujecie takie dyskusje, że chcecie o tym rozmawiać i że możemy zarysować polską koncepcję AI, nie tylko na polu wykonawczym, ale również w Sejmie, na polach ustawodawczych. Jeżeli chcemy stać się awangardą wśród państw, które myślą, że sztuczna inteligencja może nas zaprowadzić do szybszego rozwoju technologicznego, ale i szeroko pojętego bezpieczeństwa, takie dyskusje bez wątpienia powinny się odbywać, powinny być szeroko konsultowane i powinny też dawać poczucie, że wnioski z tych dyskusji są później realizowane i wykonawczo wdrażane. To na początek. Bardzo serdecznie dziękuję, bo myślę, że takie miejsca i takie pola są dla nas bardzo ważne.</u>
<u xml:id="u-1.7" who="#KrzysztofGawkowski">W tym wstępnym wystąpieniu chciałem też poprosić państwa o pewne zrozumienie dla metodyki dzisiejszego spotkania, które chciałem zaprezentować i pól, jakie przedstawimy. Po pierwsze chciałbym, żebyśmy mimo wszystko porozmawiali trochę o przeszłości, żeby później skupić się na teraźniejszości i też wskazać, jakie są pola przyszłości. Tylko takie myślenie o pewnym etapowaniu tego, gdzie jesteśmy i dokąd chcemy pójść, wyświetli miejsce, dlaczego sztuczna inteligencja jest taka ważna i co może zrobić dla Polski, polskiego obywatela, polskiej gospodarki i dla polskiego rozwoju w perspektywie pięciu, dziesięciu i kilkudziesięciu najbliższych lat.</u>
<u xml:id="u-1.8" who="#KrzysztofGawkowski">Zacznę od tego, że w Polsce o sztucznej inteligencji przez wiele lat mówiono, ale nie za wiele robiono. Na bazie polityk edukacyjnych rozwoju technologicznego powstały znakomite książki, powstały procesy systemowego opisania tego, co powinno się wydarzyć i została też opisana koncepcja, jak Polska powinna pracować dla rozwoju sztucznej inteligencji. Niestety oprócz dyskusji akademickich, NGO, pracy na poziomie organizacyjnym, ta dyskusja nie była zaprowadzona tam, gdzie moglibyśmy powiedzieć, czyli na metodę realizacji i działania. Szczególnie miało to miejsce na polu dotyczącym polityki dla rozwoju sztucznej inteligencji w Polsce, która powstała i działała, ale była to strategia rozwoju sztucznej inteligencji do roku 2020. Jak państwo wiecie, jest rok 2024 – 4 lata w rozwoju różnego rodzaju języków generatywnych, pól, które w międzyczasie zostały określone, to olbrzymi okres, który nie został odpowiednio wykorzystany. Dlatego jednym z pierwszych elementów dotyczących teraźniejszości – bo będę już zamykał tematy dotyczące tego, gdzie jesteśmy – jest doprowadzenie do powstania odpowiednio przygotowanej i zorganizowanej polityki rozwoju sztucznej inteligencji, która w Polsce będzie obowiązywała od roku 2024. Wraz z zespołami w ministerstwie i na międzyresortowym komitecie do spraw cyfryzacji przystąpiliśmy do rozpoczęcia prac nad polityką dla rozwoju sztucznej inteligencji, która ma opierać się o kilka filarów, zarówno tych społecznych, dotyczących biznesu, jak i tych, które dotyczą szeroko pojętego bezpieczeństwa. Jak zatem widzimy te pola dotyczące polityki AI w społeczeństwie i w tym, jakie powinniśmy realizować zadania?</u>
<u xml:id="u-1.9" who="#KrzysztofGawkowski">Po pierwsze AI dla obywatela, AI dla społeczeństwa, czyli sztuczna inteligencja w służbie człowiekowi. Podkreślam to mocno, żeby była świadomość, że algorytmy muszą służyć człowiekowi, a nie że w którymś momencie człowiek będzie zniewolony przez algorytmy. Aby włączyć się w działania dotyczące procesów obywatelskich, chcemy obywatelsko konsultować politykę sztucznej inteligencji i takie założenia przedstawiliśmy już na pierwszych spotkaniach w grudniu 2023 r. Aby wykorzystać potencjał sztucznej inteligencji należy też przede wszystkim elastycznie, ale i stale reagować na rozwój technologii poprzez ustanowienie prawodawstwa, które w zakresie badań i rozwoju będzie konsultowane w Sejmie w trybie rządowym. To, co chcemy zrobić dla polityki sztucznej inteligencji, to prowadzić cały proces w pracach rządowych, czyli bez takiego procesu poselskiego, który był stosowany przez wiele ostatnich lat.</u>
<u xml:id="u-1.10" who="#KrzysztofGawkowski">Po drugie AI w formie wsparcia biznesowego, ale i biznes w polityce wsparcia AI. Chcemy wesprzeć polskie firmy w tworzeniu różnego rodzaju języków generatywnych, wykorzystać rozwiązania AI, które tworzą Polacy tutaj w Polsce, ale i za granicą dla promowania firm polskich i promowania sektora publicznego, czyli rozwoju gospodarczego, który będzie z tego wynikał. Zarówno w Polsce, jak i w Europie podjęliśmy działania do tego, żeby stworzyć specjalny fundusz AI, który będzie opierał się na środkach finansowych, które będzie można wykorzystywać w sferze publicznej na poziomie pieniądza, który będzie dostępny dla firm i NGO, i edukatorów, i uczelni wyższych. Planujemy, że ten fundusz zostanie wdrożony wtedy, kiedy będzie przygotowana nowa praca nad budżetem, czyli mówimy o roku 2025.</u>
<u xml:id="u-1.11" who="#KrzysztofGawkowski">Po trzecie wspomniana już edukacja, czyli sztuczna inteligencja dla edukacji – wzmocnienie wysokiej pozycji Polski na poziomie osiągnięć uczniów szkół średnich. I to jest miejsce, które – trzeba uczciwie powiedzieć – ma znakomite osiągnięcia w Polsce i które jest naszym wielkim, niewykorzystanym zasobem. Polska jest dzisiaj na drugim miejscu na świecie – na drugim miejscu na świecie – jeżeli chodzi o umiejętności programistów i różnego rodzaju działania w ramach konkursów mistrzostw świata, zwycięstwa w olimpiadach światowych etc. To działanie należy zmotywować do tego, żeby Polacy, którzy są tak mocno znani na rynku edukacyjnym na świecie, pracowali nie tylko na rynku światowym. Stąd podjęliśmy działania dotyczące wdrożenia części naszych specjalistów, w tym trzech mistrzów świata, ale i pracowników najważniejszych korporacji światowych – którzy kiedyś wyjechali i pracowali w wielkich korporacjach za granicą – żeby działali dla Polski. Dlatego powstała grupa robocza, która nazywa się PLAI, czyli są to specjaliści światowi, ale polskiego pochodzenia. Chcemy, żeby oni pracowali w Polsce. Było dużo różnego rodzaju wątpliwości, więc chciałbym wszystkim wyjaśnić, bo czytałem dużo na ten temat – wszyscy ci eksperci pracują tutaj pro bono, nikt nie pobiera żadnych środków finansowych. Myślę, że wszyscy są na tyle majętni, że nikt nie musi nawet o tym myśleć. Chodzi po prostu o to, żebyśmy nie marnowali ich potencjału. Oni chcą dla nas pracować. Zgłosili się, więc będziemy to wykorzystywać.</u>
<u xml:id="u-1.12" who="#KrzysztofGawkowski">Po czwarte rozpoczęta przez poprzedni rząd polityka sztucznej inteligencji w sektorze publicznym. Zamierzamy to kontynuować i chciałbym mocno podkreślić, że jestem głęboko przekonany, że rozwiązanie, które będzie łączyło sektor publiczny, czyli administrację, z różnego rodzaju wykorzystaniem sztucznej inteligencji, jest właściwe. Rozpoczęliśmy prace projektowe, podkreślam, a nie legislacyjne nad rozpoczęciem myślenia, jak powinna wyglądać nowa architektura informatyczna państwa, jak powinniśmy integrować dane, jak powinna wyglądać interoperacyjność między systemami. Uważam, że to jest najtrudniejsze, to znaczy najtrudniejszym owocem przyszłości wykorzystania będą dane, które posiadamy – żebyśmy je dobrze zabezpieczyli, umieli je wykorzystywać, zapewnili ich bezpieczeństwo, żeby jednocześnie można było je wykorzystywać na przykład do tego, żeby powstawały nowe funkcjonalności w mObywatelu i w różnego rodzaju instytucjach, które też prowadzą swoje rejestry. W Polsce cyfryzacja kojarzy się z takim przeświadczeniem, że wszystko dzieje się w Ministerstwie Cyfryzacji. Otóż dużo dzieje się w Ministerstwie Cyfryzacji, ale również dużo dzieje się w resorcie ochrony zdrowia, edukacji, polityki społecznej, obrony narodowej, spraw wewnętrznych i administracji, polityki ekologicznej, energii itd. Nie wiem, czy jest dzisiaj w Polsce miejsce, gdzie różnego rodzaju języki generatywne dotyczące tego, jak ma wyglądać interoperacyjność między systemami nie działają w ministerstwach … w rzeczywistości działają, skupiają się też w rękach tego, co zostało przez lata udostępniane w mObywatelu. Oczywiście żeby otwierać różnego rodzaju nowe funkcjonalności potrzeba czasu, bo nie wszystko da się zrobić ze względu na to, że mamy chociażby ustawę o ochronie danych osobowych. Jesteśmy przed dyskusją na temat tego, jak powinna ona zostać zmieniona, żebyśmy mogli wykorzystywać te dane.</u>
<u xml:id="u-1.13" who="#KrzysztofGawkowski">W końcu usprawnienie efektywności działania administracji rządowej i samorządowej – tu mamy najtrudniejsze wyzwania. Nie będę ukrywał. Wszyscy z państwa, którzy interesujecie się cyfryzacją, algorytmami, sztuczną inteligencją – panie przewodniczący, taką dyskusję mieliśmy też w tamtej kadencji – wiecie, że administracja ma największe problemy, dlatego że ma najtrudniejszą absorbcję to znaczy często przekonanie do papieru, jednocześnie brak sytuacji, które pozwalają wykorzystywać zebrane dane, czyli ich wprowadzanie do systemów, które są kontrolowane, później wykorzystywanie tych danych, nakładanie logistyki, czyli algorytmów i na koniec sztuczna inteligencja to jest najtrudniejszy proces. Ile on zajmie? Nie potrafię odpowiedzieć. Nawet nie wyobrażam sobie tego, chciałbym, żeby to następowało szybko, ale to są przestrzenie, o których będę mógł państwu powiedzieć pewnie po wszystkich debatach, które przejdziemy w ramach grup roboczych. Chcemy również otworzyć specjalne miejsce do rozmowy w ramach grup współpracy międzynarodowej. W ministerstwie stworzyliśmy nowy departament, który będzie zajmował się polityką międzynarodową i dużą część tych aktywności chcemy przełożyć na ramy współpracy międzynarodowej dotyczącej tego, jak rozwija się sztuczna inteligencja i jeżeli chodzi o legislacje na świecie. Podkreślam – legislacje, to znaczy interesują nas na przykład rozwiązania brytyjskie, które są wdrażane, interesują nas zbiory danych, które są i będą przetwarzane w państwach europejskich, ale chcemy też wyjść dalej. Na przykład jestem po spotkaniu z ambasadorem Japonii, gdzie rozmawialiśmy o możliwościach bilateralnej współpracy między państwami, które już rozpoczęły działania w ramach swoich polityk wewnętrznych w państwach wysoko rozwiniętych. To jest też pole do 2024 r.</u>
<u xml:id="u-1.14" who="#KrzysztofGawkowski">W końcu chcemy doprowadzić do szóstego elementu, który z perspektywy sztucznej inteligencji ma walor kluczowy, to znaczy objęcie tych wszystkich obszarów – społeczeństwo, obywatel, innowacje, edukacja, sektor publiczny i sektor międzynarodowy – bezpieczeństwem. Bez odpowiedniego zapewnienia bezpieczeństwa sztuczna inteligencja jest groźna. Musimy zacząć zdawać sobie z tego sprawę, bo jesteśmy w zachwycie – i bardzo dobrze, ja też jestem fanem i entuzjastą sztucznej inteligencji, jestem fanem jej wykorzystania dla gospodarki, rozwoju i przyszłości człowieka – ale sztuczna inteligencja bez odpowiednich hamulców może doprowadzić do sytuacji – bardzo to spłycę, więc specjalistów za to przepraszam – że do kogoś z państwa zadzwoni syn, córka, brat albo żona i jak zadzwoni, to porozmawiacie, uznacie, że rozmawialiście z osobą, która wyświetlała wam się na żywo i może okazać się, że zostaliście wprowadzeni w błąd przez to, że sztuczna inteligencja wygenerowała bliskiego członka waszej rodziny, który z wami rozmawiał i wydobył od was dane, czyli was oszukał, wprowadził w błąd, doprowadził do kryzysu. To jest najprostszy z tematów rozwiązań, ale możemy sobie też wyobrazić wszystkie rzeczy, które można wygenerować już dzisiaj, a jesteśmy przecież w polach przyszłości, do których teraz będę powoli przechodził, bo i języki generatywne będą się rozwijały i pola dotyczące przechodzenia z algorytmów do prawdziwej sztucznej inteligencji również będą się poszerzały.</u>
<u xml:id="u-1.15" who="#KrzysztofGawkowski">Zatem czym jest bezpieczeństwo, cyberbezpieczeństwo w AI? Jest myśleniem o tym, jak przygotować się do świata rewolucji technologicznej, który będzie wdrażał sztuczną inteligencję i nie będzie zagrażał człowiekowi. W związku z tym toczą się prace na dwóch poziomach: poziomie europejskim – pierwszym z tych elementów jest AI Act, czyli akt o sztucznej inteligencji, który jest przygotowywany, wdrażany i jest zatwierdzony na poziomie już Unii Europejskiej i drugi element – polskie przepisy, które będą starały się wyprzedzać takie myślenie, które później mogłoby sztucznej inteligencji w Polsce na przykład przeszkodzić w rozwoju gospodarczym albo wpłynąć na to, że obywatele będą gdzieś zagrożeni. Odtwarzamy zatem współpracę i chcemy ponownie zbudować porozumienie społeczne w ramach grupy roboczej AI, która wytworzyła już kilka ważnych dokumentów m.in. białą księgę wykorzystania AI w praktyce klinicznej, przygotowała raport o piaskownicach regulacyjnych dotyczący infrastruktury i różnego rodzaju działań sztucznej inteligencji w Polsce, zbiorów danych, które wykorzystują języki programowania. Chcemy, żeby grupa robocza przygotowała różnego rodzaju strategie działań, które pozwolą skutecznie przeciwdziałać świadomości społecznej, że AI może być groźne. Chcemy bardzo dużo postawić na higienę cyfrową w ramach sztucznej inteligencji. W tej sprawie jestem w koordynacji z panią minister edukacji i uważamy, że na poziomie kompetencji cyfrowych powinniśmy wdrożyć do programu nauczania takie elementy, które już w nauczaniu wczesnopodstawowym, czyli mówimy o klasach 1–3 doprowadzą do tego, że dziecko będzie miało świadomość tego, jak należy wykorzystywać cyfrową higienę na poziomach języków generatywnych, które mogą je zaskakiwać, które będą podkładały mu dezinformacje, fake newsy, deepfake, różnego rodzaju działania, które może absorbować jako prawdę. Jednocześnie jak skonsultować te działania, żebyśmy tę kompetencję cyfrową wdrożyli też wśród najstarszych. To jest dla nas jeden z ważnych elementów. Wyjdę poza temat sztucznej inteligencji, ale chciałbym go zaznaczyć i też zaadresować na jakąś Komisję w przyszłości – to kompetencje cyfrowe w sektorze wiekowym 65 plus. Mamy jedne z najniższych kompetencji w sektorze 65 plus i to nie chodzi o jakiekolwiek zaniedbanie, chodzi o to, że po prostu polska struktura społeczna wykształciła się tak, że od szerokiego wejścia na rynek smartfonów, a wcześniej telefonii komórkowej, po prostu zawsze na poziomie 65-70 był ten problem. W końcu trzeba powiedzieć, że on jest i spróbować go rozwiązać. Czy jesteśmy dzisiaj w stanie zbudować kompetencje cyfrowe na tym poziomie? Nie powiem, że możemy, tylko że musimy. W związku z tym, że jest w planie, abyśmy na przykład realizowali nowy poziom e-Doręczeń, realizowali zadania, które będą wynikały nie tylko z tego, że po prostu możemy zaadresować sobie grupy, które chodzą i dostają receptę w telefonie i kod, to musimy mieć świadomość, że sztuczna inteligencja będzie dotyczyła też starszych, którzy mogą być jeszcze bardziej skażeni i problemami – widzicie to państwo pewnie po takim specjalnym smsie, który niektórzy z was dostali, fachowo zwanym phishingiem – ale generalnie chodzi o to, że ktoś z was mógł być oszukany i to jest tylko mała komóreczka tego, co może zrobić sztuczna inteligencja gdyby na przykład generowała kilkaset tysięcy maili do najstarszej grupy obywateli. Więc świadomość tego jest dla nas również bardzo ważna i dlatego ta grupa gra(?)21:28 i ożywienie całego tego procesu, który jest ważny.</u>
<u xml:id="u-1.16" who="#KrzysztofGawkowski">Na koniec, jeżeli chodzi o języki generatywne i współpracę w Polsce dotyczącą sztucznej inteligencji – uważamy, że jeżeli w Polsce nie wykształcimy myślenia strategicznego, międzyresortowego o sztucznej inteligencji, to ile by cyfryzacja i edukacja do tego nie włożyły, to będziemy mieli problem. Dlaczego ten problem będzie? Dlatego, że sztuczna inteligencja wkrada się w różne pola powoli, ale skutecznie. Otworzę obszar zdrowia, który nie jest w moim kompetencyjnym zainteresowaniu, ale ze względu na współpracę ministerstwa i NASK – będę też chciał panu dyrektorowi oddać głos w tej sprawie – współpracujemy na przykład z Centrum e-Zdrowia, które odpowiada za cesję zdrowia, które odpowiada m.in. za to, żeby w systemie ochrony zdrowia, w szpitalach był pewien poziom bezpieczeństwa. On jeszcze wzrośnie po nowelizacji krajowego systemu cyberbezpieczeństwa, ale co to oznacza dla sztucznej inteligencji? Oznacza to tyle, że dzisiaj ilości danych zbieranych w systemach, które można by było przetwarzać i które można by było wygenerować, oznaczają że oczywiście możemy wcześniej zdecydować się na badania, bo odkryjemy, że ktoś jest zagrożony chorobą onkologiczną, bo zbierzemy dane, które pozwolą stwierdzić, że jesteś w grupie podwyższonego ryzyka, czyli na przykład w okresie trzech lat zachorujesz na raka. To możemy robić już dziś. Ale w związku z tym jeżeli te dane nie będą odpowiednio zabezpieczone, to można je też wykorzystywać do tego, żeby na przykład firmy wiedziały, co wydarzy się z naszym życiem i w związku z tym nie chciały z nami podpisywać umów, żeby ubezpieczyciele nie chcieli z nami generować przez trzy czy pięć lat wcześniej żadnych sytuacji kryzysowych. W związku z tym, poprzez wiedzę, algorytmy, zebrane dane, ich szczegółowe obrazowanie, nasze życie tak naprawdę mogłoby nam zostać bardzo skomplikowane. W związku z tym w tym akcie europejskim AI Act w polskich przepisach, które poleciłem wdrażać w ministerstwie i prowadzić nad nim praktyki, będzie kilka wytycznych, które na koniec chciałbym zostawić jako pole przyszłości.</u>
<u xml:id="u-1.17" who="#KrzysztofGawkowski">Pierwsza wytyczna jest taka: jesteśmy i będziemy – jako rząd polski i wierzę, że jako parlament i wspólnie wszystkie siły polityczne – przeciwko temu, żeby stosować szeroką biometrię w czasie rzeczywistym, jeżeli chodzi o użycie języków programowania. Jestem głębokim przeciwnikiem tego, żeby algorytmy i sztuczna inteligencja mogły wykorzystywać nasze dane, na przykład jak chodzimy po ulicy, czyli algorytmować nasze ruchy, żeby można było w trybie rzeczywistym podawać, co robimy. Jestem przeciwnikiem i będę próbował też państwa tym zarazić, Wysoką Komisję, Komisję Cyfryzacji i wszystkie ciała sejmowe, żebyśmy nie pozwalali sztucznej inteligencji na bycie ostatnim decydentem. To znaczy ostatnie słowo powinno zawsze należeć do człowieka i wszystkie akty prawne, które będziemy konstruowali powinny wykluczać, że gdzieś na końcu procesu algorytmy same podejmują decyzje. Czyli wszystkie procesy adresowane u człowieka – tak to będzie się nazywało.</u>
<u xml:id="u-1.18" who="#KrzysztofGawkowski">I w końcu trzecia rzecz –musimy i powinniśmy wypracować kodeks praktyk etycznych na różnych polach, jeśli chodzi o współpracę międzyresortową w obszarze sztucznej inteligencji, bo bez niego będzie niezmiernie trudno, żeby nauczyć społeczeństwo, ale przede wszystkim obywatela – bo on jest clue zainteresowania resortu i myślę też, że całego społeczeństwa – że najważniejszy jest obywatel, który musi mieć poczucie, że w obszarze algorytmów państwo się nim opiekuje, a nie algorytmem opiekują się obywatele. Dziękuję. Jeżeli pan poseł przewodniczący pozwoli, to jeszcze chciałem poprosić o głos pana dyrektora.</u>
<u xml:id="u-1.19" who="#RadosławNielek">Pan premier mówił o szansach, które tworzy sztuczna inteligencja, ale także trochę o zagrożeniach. Powiem szczerze, że my jako NASK, powołani do tego, żeby bronić bezpieczeństwa polskiej przestrzeni internetowej, koncentrujemy się głównie na kwestiach związanych z zagrożeniami. Koncentrujemy się na nich nie po to, żeby hamować rozwój sztucznej inteligencji, tylko właśnie po to, żeby ona mogła rozwijać się jak najlepiej, bo wtedy, kiedy pojawią się obawy, kiedy pojawi się strach z tym związany, to będziemy mieć także potencjalny problem z jej rozwojem.</u>
<u xml:id="u-1.20" who="#RadosławNielek">Mogę prosić kolejny slajd? To jest taki krótki slajd wprowadzający do tego jak bardzo sztuczna inteligencja jest obecna w świadomości. I o ile większość z nas jest świadoma tego, że sztuczna inteligencja jest obecna w niektórych produktach, to bardzo niewiele osób jest w stanie faktycznie zidentyfikować, w jak wielu produktach jest ona obecna już dzisiaj. Oznacza to także, że jak bierzemy przedmiot do ręki, korzystamy z technologii, to często nie mamy świadomości, że pod spodem, w zasadzie już od wielu, wielu lat, czają się – może nie jest to najlepsze słowo – ale jakoś tam wspierają nasze działania algorytmy sztucznej inteligencji.</u>
<u xml:id="u-1.21" who="#RadosławNielek">Mogę prosić kolejny slajd? My w NASK patrzymy na sztuczną inteligencję z trzech perspektyw i o tych trzech perspektywach chciałbym krótko powiedzieć, potem oddam głos panu profesorowi Bieckowi, który jest dyrektorem jednego z centrów zajmujących się bezpieczeństwem sztucznej inteligencji. Te trzy rzeczy na przecięciu słów bezpieczeństwo i sztuczna inteligencja to jest zastosowanie sztucznej inteligencji w zabezpieczaniu internetu w Polsce czy generalnie naszych doświadczeń w korzystaniu z komputerów. Te algorytmy, rozwiązania sztucznej inteligencji, algorytmy, które my już teraz wykorzystujemy w większości produktów, które NASK oferuje i którymi zabezpiecza istniejące w Polsce rozwiązania. Jeśli korzystają państwo z mObywatela, to w mObywatel jest rozwiązanie BotSense, a BotSense w wersji mobilnej w pewnym zakresie korzysta już z rozwiązań sztucznej inteligencji po to, żeby chronić użytkowników mObywatela. Podobnie rozwiązane są kwestie ochrony anty DDoS czy ochrony związanej generalnie z wykrywaniem phishingowych domen w internecie. Tam także bardzo wiele rozwiązań z zakresu sztucznej inteligencji jest już teraz wdrożonych i wykorzystujemy sztuczną inteligencję po to, żeby nasz internet był bezpieczniejszy.</u>
<u xml:id="u-1.22" who="#RadosławNielek">Mogę kolejny slajd? To jest chyba jeden z takich przykładów, o których pewnie państwo wiedzą mniej, to znaczy w ramach NASK działa także Dyżurnet, który zajmuje się treściami CSAM. Tak profesjonalnie nie używa się tego sformułowania, bo ono jest szersze, w pewien sposób nacechowane nie tak, jak byśmy chcieli. Specjaliści używają słowa CSAM z angielskiego, natomiast tu chodzi o pornografię dziecięcą. Dyżurnet zajmuje się analizą takich zgłoszeń, ich wykrywaniem i reakcją na nie. Oczywiście w tym zakresie, do którego jest upoważniony. Już teraz mamy model sztucznej inteligencji, który jest wykorzystywany do tego, żeby w tym zakresie wstępnie kategoryzować przychodzące treści. To pozwala zmniejszyć obciążenie pracy analityków, priorytetyzować zgłoszenia, a także pozwala w przyszłości – w tej chwili jeszcze dokładnie tak to nie działa – przeszukiwać internet pod kątem obecności takich treści i ewentualnie reagować na ich pojawienie się. Natomiast jest to o tyle ważne, że to także bardzo dobry przykład tego, jak sztuczna inteligencja i taki model, który jest ogromnie wartościowy, może zostać wykorzystany do złych celów. Bo ten model, który był pokazany na poprzednim slajdzie, wyciągnięty z NASK, udostępniony publicznie, mógłby zostać wykorzystany do nauczenia innych sztucznych inteligencji do generowania takich treści. To jest jeden z rodzajów ataków, które można przeprowadzać na takie modele. Dotyczy to odzyskiwania danych treningowych. To pokazuje, że jest potrzebna nie tylko regulacja, ale czasem także taka fizyczna obrona tych modeli.</u>
<u xml:id="u-1.23" who="#RadosławNielek">Dobrze, to, co państwu teraz opowiedziałem, to było trochę o tym, jak w tej chwili wykorzystujemy modele sztucznej inteligencji do obrony cyberprzestrzeni, czyli to bezpieczeństwo i sztuczna inteligencja. Jest jeszcze drugi, równie ważny obszar. Już teraz widzimy wzrost różnego typu ataków przeprowadzanych z wykorzystaniem sztucznej inteligencji pod spodem. Proszę sobie wyobrazić, że jeszcze dwa, trzy, cztery lata temu przeprowadzanie takiego bardzo zaawansowanego ataku na wybraną osobę, prezesa dużej firmy, premiera, ministra, bardzo istotną osobę, która podejmuje decyzje lub ma dostęp do ważnych danych wymagało kilku osób, wysokiej klasy specjalistów, oczywiście ich nielegalnego zaangażowania. Oni musieli poświęcić czas, często tygodnie na znalezienie wektorów ataku, na zebranie informacji o tej osobie, na przygotowanie komunikatów o nich i na wysłanie tych komunikatów jakimiś różnymi kanałami. W tej chwili sporą część tych rzeczy da się zrobić za kilka lub kilkanaście dolarów korzystając z już istniejących modeli sztucznej inteligencji. Czyli rodzaje ataku, ich zaawansowanie, które były możliwe tylko dla kilkudziesięciu, kilkuset wybranych osób w danym kraju, za chwilę ten rodzaj zaawansowanych ataków będzie dostępny dla wszystkich, tzn. w ten sposób za kilka dolarów będzie można zaatakować każdego w Polsce. A za rok, dwa, trzy pewnie nie za kilka dolarów, a za kilkanaście centów. Niektóre rzeczy, takie jak generowanie głosu, który udaje głos osoby, którą znamy, generowanie wiarygodnego wideo osoby, którą znamy były w ogóle niemożliwe To wszystko już jest lub za chwilę będzie możliwe w cenie, która nie będzie przekraczała ceny kubka kawy w Starbucks. Musimy być tego świadomi, bo to wymaga zupełnie nowych sposobów odpowiedzi, ochrony, regulacji i rozwiązań, które będą nas bronić.</u>
<u xml:id="u-1.24" who="#RadosławNielek">Czy mogę prosić kolejny slajd? Jak patrzymy na sztuczną inteligencję, która jest godna zaufania, to mówimy o takich trzech aspektach.</u>
<u xml:id="u-1.25" who="#RadosławNielek">Pierwszy to zgodności z prawem. Pan premier dużo mówił o tym, w jakim kierunku będzie starało się posuwać to prawodawstwo m.in. w kontekście tego, że ostateczna decyzja powinna należeć do człowieka, więc sztuczna inteligencja, która istnieje w jakimś otoczeniu, działa w Polsce, działa w konkretnym kraju, powinna być zgodna z prawem. Tylko trzeba też mieć świadomość tego, że Polska jest sporym krajem, bez wątpienia z ambicjami, ale na mapie świata jesteśmy tylko jednym z wielu krajów, a modele sztucznej inteligencji są tworzone w bardzo wielu krajach i są dostępne zdalnie. To także wpływa na to, że coś, co jest zgodne z prawem w Polsce, to ten model może być niezgodny z prawem w Polsce, natomiast może być dostępny zdalnie lub być dystrybuowany na bazie na przykład open source. Dyskusja będzie pewnie dotyczyła tego, czy jeżeli model może nie być zgodny z prawem, to czy jego użycie może być zgodne z prawem.</u>
<u xml:id="u-1.26" who="#RadosławNielek">Drugi istotny aspekt to solidność, o której też często zapominamy, bo trenujemy modele na konkretnych danych, w konkretnym momencie, zebranych w jakimś tam czasie. Solidne modele sztucznej inteligencji powinny zachowywać się przewidywalnie i zgodnie z naszymi oczekiwaniami w każdych warunkach, z jakimi mogą się zetknąć. To nie jest tak, że mamy autonomiczny samochód, który został nauczony i świetnie jeździ po Kalifornii, natomiast niezbyt rewelacyjnie jeździ po górach w Polsce, bo spadł śnieg albo mamy mgłę albo mamy opady deszczu albo bo w Skandynawii jest dużo silniejszy wiatr niż to, z czym model spotkał się w Kalifornii. Musimy być świadomi tego, że solidny oznacza działający poprawnie, zgodnie z całymi warunkami, z jakimi może się zderzyć.</u>
<u xml:id="u-1.27" who="#RadosławNielek">Wreszcie ostatnia rzecz, która trochę łączy się ze zgodnością z prawem, też jest ważna i chyba jest jeszcze trudniejsza niż kwestia oceny zgodności z prawem, to kwestia etyczności tego modelu, tzn. zachowania tego modelu, odpowiedzi modelu muszą być etyczne. Jestem informatykiem i nie posunę się dalej w dyskusji na temat tego, co to znaczy etyczne, ale tak, jak wszyscy tutaj siedzimy, mamy świadomość i takie poczucie, że jest jakaś szara strefa, o której możemy dyskutować, jest cała przestrzeń zachowań, które na pewno są nieetyczne i takich, które moglibyśmy uznać za etyczne.</u>
<u xml:id="u-1.28" who="#RadosławNielek">Dobrze, w tym miejscu postawię kropkę i może przekażę głos panu profesorowi, bo chciałbym państwa jeszcze zapoznać z trzema przykładowymi atakami na modele sztucznej inteligencji, bo to jest ten trzeci rodzaj zagrożeń. Powiedziałem już o dwóch. Trzecim rodzajem są potencjalne ataki na same modele sztucznej inteligencji to znaczy model został zbudowany z założeniem, że będzie przestrzegał prawa, etycznie, w sposób solidny – tak nam się przynamniej na początku wydawało – ale wciąż jest cała masa różnego rodzaju ataków, nie z wykorzystaniem modeli sztucznej inteligencji jak na przykład miarowanie głosu, tylko na same modele sztucznej inteligencji. Tutaj oddaję głos panu profesorowi. Bardzo dziękuję.</u>
<u xml:id="u-1.29" who="#PrzemysławBiecek">Jednym z przykładów ataków na modele, który wydaje się być bardzo trudny, ale w rzeczywistości jest prowadzony, to zaburzanie informacji wyjściowych w taki sposób, żeby pozyskać jakiś pożądany efekt. Przykładowo, jeżeli mamy model, który rozpoznaje twarze, okazuje się, że można takim modelem oszukiwać w taki sposób, że dodając małą informację na zdjęciu, na przykład plakietkę, możemy spowodować, że ten model będzie działał inaczej. Czyli jeżeli mamy model, jestem w stanie wygenerować dla niego plakietkę, która oszuka ten model i nagle okaże się, że on może zbadać moją twarz i będzie uważał, że można zrobić kogoś innego. To dotyczy nie tylko rozpoznawania twarzy, ale też innych obiektów, nie chcę odwoływać się do takich najbardziej klasycznych przykładów militarnych typu czołgi, ale dotyczy też różnych obiektów w obszarze zdrowia. Poproszę kolejny slajd. Tych ataków jest znacznie więcej. Przykładowym atakiem, który często jest wykonywany na etapie trenowania modelu jest atak, który polega na modyfikacji złośliwych danych treningowych. To jest kluczowe. Myślimy o modelu jako wyjściowym, gotowym rozwiązaniu, ale bardzo ważne jest, żeby kontrolować sposób, w jaki ten model był trenowany. Dlatego często dostępność danych wpływa na to, jak funkcjonuje model. Posłużę się prostym przykładem – jeżeli model jest językowy, ma za zadanie rozpoznać znaczenie skrótu „op”, w zależności od tego, co jest trenowane bardziej, na analizie jakichś zapisków lekarskich może rozpoznać ten opis „op” jako opakowanie, a jeżeli byłby trenowany bardziej na danych diagnostycznych, to może rozpoznać go jako oko prawe. Dla specjalisty z kontekstu będzie wynikało czym jest „op”. Jeżeli nasze dane treningowe są źle przygotowane, jeżeli nie mamy kontroli nad tym, które dane są wykorzystane, to może okazać się, że model, który otrzymujemy, nie działa zgodnie z naszym oczekiwaniem w naszym środowisku. Poproszę kolejny slajd.</u>
<u xml:id="u-1.30" who="#PrzemysławBiecek">Kolekcja rzeczy, które mogą pójść źle jest bardzo duża. Żeby pokazać najbardziej oczywiste przykłady, to posłużę się jeszcze przykładem, który jest w stanie z modelu wytrenowanego, mamy taki ChatGPT Midjourney – modele, które już istnieją w naszej przestrzeni, okazuje się, że z takiego modelu można czasami wyciągnąć informacje o danych, na których ten model był trenowany. To nie zawsze jest coś, co byśmy chcieli. Jeżeli na przykład mamy model, który pracuje w obszarze medycyny i diagnozuje on bardzo rzadką, ale być może wstydliwą chorobę i jeżeli jestem w stanie odgadnąć czy jakaś obserwacja była użyta w danych treningowych, to tym samym możemy odgadnąć, czy dana osoba miała tę wstydliwą chorobę. Pamiętamy pandemię COVID, była taka wstydliwa sytuacja, że nie każdy chciał być identyfikowany z tym, że był chory na COVID. Nie ma co prawda żadnej winy tej osoby, ale nie każdy chciał być tak postrzegany. Jeżeli mielibyśmy model rozpoznający COVID, to przy użyciu pewnych ataków jestem w stanie określić, czy wśród danych treningowych była na przykład określona osoba. Więc to jest jeszcze jeden przykład potencjalnych ataków na model. Poproszę kolejny slajd. Tych przykładów jest dużo więcej. Nie zawsze one mają takie bardzo oczywiste konsekwencje. Przykładowo prowadziliśmy ze studentami na Uniwersytecie Warszawskim analizę modeli do segmentacji obrazu i okazało się, że modele w internecie nie potrafią rozpoznawać naszych pierogów. Na polecenie „dumplings” one były trenowane na chińskich danych. Na chińskich danych pierogi wyglądają inaczej, więc nie potrafią rozpoznawać pierogów polskich. Czy to jest problem, który nas niepokoi? Okazuje się, że może nas niepokoić, dlatego że taki sam problem zauważyła badaczka Timnit Gebru, która pracowała w Google. Odkryła ona, że w jej przypadku model nie rozpoznaje jej twarzy. Ona akurat ma bardzo ciemny kolor skóry i modele nie były w stanie rozpoznawać jej koloru skóry. Taki sam problem – niedobrze skalibrowane dane, brak rozpoznawania pewnego obiektu – doprowadził do tego, że Timnit Gebru uruchomiła całą fundację, która zaczęła walczyć, żeby modele były równie skuteczne też dla grup mniejszościowych. Jeżeli chcemy chronić nasze dziedzictwo niematerialne, takie jak na przykład pierogi, to oczywiście analiza stronniczości, uczciwości modeli jest bardzo ważna. Nie tyko dla pierogów, ale też dla innych istotnych podgrup ludzi czy innych obiektów. Poproszę kolejny slajd.</u>
<u xml:id="u-1.31" who="#PrzemysławBiecek">Tematem, który bardzo często pojawia się w dyskusji o AI jest kwestia transparentności i wyjaśnialności. Jest to temat, który jest szalenie ważny, ponieważ jeżeli mówimy o zaufaniu do narzędzi AI – a takich narzędzi będzie coraz więcej i będą one coraz bardziej obecne – to szalenie ważne jest, żebyśmy mogli też sprawdzić i zrozumieć jak te modele działają. Trudno sobie wyobrazić sytuację, że model, który ma sygnalizować chorobę, wypluje jakiś wynik i osoba, która później ma się podpisać pod tą diagnozą bez mrugnięcia okiem stwierdzi, że tak, oczywiście, nie ma żadnych szans, żeby tego pacjenta wyleczyć, albo trzeba przepisać tę konkretną, bardzo agresywną terapię. Kluczowe jest, żebyśmy wymagali, żeby tworzone modele były transparentne, żebyśmy mogli analizować powody dla których są podejmowane dane decyzje.</u>
<u xml:id="u-1.32" who="#PrzemysławBiecek">Jest świetna książka Cathy O’Neil „Broń matematycznej zagłady”, w której autorka opisuje serię przykładów, dla których brak transparentności prowadzi do problemów. Przykładowo została zwolniona nauczycielka, dlatego że jej algorytm uznał, że nie ma żadnej poprawy, nie generuje zwiększania produktywności i poziomu wiedzy studentów. Jej studenci byli świetni i z roku na rok przychodzili do niej Ci najlepsi. Dla algorytmu ten brak progresu był argumentem za zwolnieniem nauczycielki. Bez zrozumienia, co stoi za decyzjami, ryzykujemy tego typu problemy. Poproszę kolejny slajd.</u>
<u xml:id="u-1.33" who="#PrzemysławBiecek">Ponownie – mam nadzieję, że nikogo nie nastraszyłem, ale też nie chciałbym, żeby opowiadanie o problemach, które stoją przed modelami było zniechęceniem do ich używania. Wręcz przeciwnie. Wydaje mi się, że jesteśmy w miejscu, kiedy w obszarze bezpiecznej AI z takim potencjałem intelektualnym, które mamy w naszym kraju, możemy nie tylko poradzić sobie z tymi problemami, ale też możemy być liderem – w obszarze czy europejskim czy szerszym – w jaki sposób bezpiecznie wdrażać rozwiązania SI. Poproszę kolejny slajd. A to już chyba dla dyrektora.</u>
<u xml:id="u-1.34" who="#GrzegorzBernardNapieralski">Bardzo dziękuję, otwieram dyskusję. Jeżeli ktoś chce zabrać głos, bardzo proszę. Proszę, żeby przedstawić się po zgłoszeniu, wtedy będzie najszybciej i najłatwiej. Proszę bardzo.</u>
<u xml:id="u-1.35" who="#JoannaKarczewska">Niestety chciałabym postraszyć. Sama jestem ofiarą sztucznej inteligencji. Proszę mi wierzyć, to absolutnie nie jest miłe przeżycie, dlatego że wszyscy umywają ręce, a szczególnie państwo polskie i nie tylko państwo polskie. Państwo amerykańskie też umyło ręce. Dlatego chciałabym dowiedzieć się jakie są plany – ale bardzo konkretne – możliwości weryfikacji, odwołania się od decyzji chociażby państwa polskiego wymyślone czy też opracowane przez sztuczną inteligencję. Jeżeli sztuczna inteligencja będzie wdrożona do administracji samorządowej i rządowej, to proszę mi wierzyć – wszyscy będą zwalać winę właśnie na sztuczną inteligencję. Nikt nie będzie dociekać – ja już tego doświadczyłam – tylko będzie „a to algorytm tak wymyślił i tak ma być”.</u>
<u xml:id="u-1.36" who="#JoannaKarczewska">Zalecałabym bardzo daleko idący sceptycyzm i przede wszystkim opracowanie algorytmów postępowania w przypadku wątpliwości obywatela, co do decyzji podejmowanych w imieniu państwa polskiego przez sztuczną inteligencję. Nawet jeżeli państwo zarzekacie się, że ostateczna decyzja będzie należała do człowieka, znając podejście człowieka w urzędach – tak, jak mówię, ja tego doświadczyłam – to będzie, „no cóż, system tak zrobił, system tak wskazał i tak ma być. Koniec, kropka”.</u>
<u xml:id="u-1.37" who="#GrzegorzBernardNapieralski">Jest taka pinezka i przykładamy tę pinezkę do lewego głośnika.</u>
<u xml:id="u-1.38" who="#MichałNowakowski">Na początku w ogóle chciałbym podziękować za otwarcie tej dyskusji, bo tej dyskusji na poziomie bardziej zinstytucjonalizowanym brakowało przez wiele lat. Bardzo mi się podobało – myślę, że to nie tylko moje zdanie – samo wystąpienie pana premiera, ale także pana dyrektora z NASK. Natomiast chciałbym zwrócić uwagę na trzy rzeczy. W zasadzie dwie rzeczy podkreślić w kontekście tych propozycji czy tak naprawdę planów działania i wskazać jedną rzecz, która się tutaj nie pojawiła, a która naszym zdaniem jest bardzo istotna.</u>
<u xml:id="u-1.39" who="#MichałNowakowski">Po pierwsze kwestia wytycznych w zakresie etycznego wykorzystania sztucznej inteligencji. Chcielibyśmy zwrócić uwagę na to, że oczywiście jest to bardzo potrzebne, także łącząc to z tym, o czym powiedział profesor Biecek, czyli kwestią wyjaśnialności, przejrzystości algorytmów. Ale to muszą być wytyczne, które rzeczywiście będą stosowane, które nie będą martwym dokumentem, tylko rzeczywiście będą one po pierwsze adresowane do sektora publicznego i do sektora prywatnego i po drugie muszą być w jakiś sposób – nie mówię, że egzekwowalne, bo tego nie da się zrobić na takim poziomie, pewnie to nie będzie na poziomie przepisów ze względu na samą specyfikę etyki jako takiej. Natomiast podkreślamy, że rzeczywiście to jest potrzebne i mówimy tutaj także o kwestii operacjonalizacji tej etyki sztucznej inteligencji, żeby nie było to traktowane tylko jako pewna filozofia.</u>
<u xml:id="u-1.40" who="#MichałNowakowski">Druga kwestia to kwestia usieciowienia prac w sprawie sztucznej inteligencji, zarówno w kontekście współpracy z różnymi jednostkami akademickimi, stworzenia jakiejś platformy do wymiany myśli, pomysłów w tym zakresie, ale także głębszej współpracy pomiędzy biznesem, NGO czy w ogóle takim czynnikiem społecznym, a właśnie tymi środkami akademickimi oraz sektorem publicznym, co jest bardzo istotne. Kwestia interdyscyplinarności jest absolutnie podstawowa.</u>
<u xml:id="u-1.41" who="#MichałNowakowski">Trzecia rzecz, która tutaj nie wybrzmiała, która – jak zakładam – wynika trochę z prac, które toczą się na poziomie Unii Europejskiej w kontekście AI Act uważamy, że jest potrzebna instytucjonalizacja w zakresie sztucznej inteligencji, czyli de facto powołanie instytucji i organu, który będzie za to odpowiadał. Oczywiście projekt rozporządzenia w sprawie sztucznej inteligencji zakłada, że każde państwo będzie musiało mieć taki swój organ, który będzie odpowiadał za realizację samego rozporządzenia, ale trochę idąc tropem chociażby Hiszpanii, która wcześniej powołała swoją instytucję, która ma zdecydowanie szerszy zakres kompetencji niż tylko kwestie związane z AI Act, wydaje nam się, że powinno się to zadziać na poziomie krajowym, co też wpisuje się w to, o czym było wspominane wcześniej, czyli żeby Polska była liderem w zakresie sztucznej inteligencji. To są nasze trzy punkty, postulaty, które chcielibyśmy podkreślić w kontekście realizacji.</u>
<u xml:id="u-1.42" who="#MichałNowakowski">Może dodam jeszcze taki czwarty element, który jest bardzo istotny. Ponieważ mówimy o tym, że od 2024 r. ma powstać nowa polityka, to dwie rzeczy będą bardzo istotne. Po pierwsze ustalenie jakichś wskaźników wykonalności, a po drugie te wskaźniki wykonalności muszą być komunikowane takiemu obszarowi społecznemu. To znaczy my obywatele, różne organizacje, musimy mieć świadomość tego, w jaki sposób realnie jest realizowana ta polityka. Wiemy, że na przykład dzisiaj ta polityka od 2020 r. jest też realizowana, ale nie mamy szerszych informacji na przykład jakie konkretnie punkty zostały zrealizowane. To nie jest zarzut, zawsze kwestia przejrzystości rodzi pewne trudności też ze względu na różne podejmowane działania, ale chcielibyśmy podkreślić, że ta kwestia komunikacji jest dla nas bardzo istotna. Dziękuję bardzo.</u>
<u xml:id="u-1.43" who="#KrzysztofGawkowski">Co do interoperacyjności z aplikacjami – oczywiście, że działają, ale najwięcej tych spraw dotyczących działań i otwartości w mObywatel chciałbym położyć na szali integracji z Centrum e-Zdrowia, z Ministerstwem Zdrowia i w tej agendzie budować też jakieś nowe funkcjonalności, bo po tym jak przyszliśmy do resortu, bardzo dużo osób zwraca nam uwagę, że brakuje im takiej integracji mObywatela z Systemem Ochrony Zdrowia, że chcieliby, żeby tam pojawiło się na przykład więcej elementów, które pozwalałyby na niesięganie po dodatkowe aplikacje, tylko żeby wszystko było tam. Myślimy o tym. To jest tak, że Departament Transformacji Cyfrowej razem z Centralnym Ośrodkiem Informatyki mają plan, żeby do końca marca przedstawić nam taki zintegrowany obraz tego, co można by tam włączyć, więc czekam na ostateczną rzecz. Zresztą poinformowałem państwa przewodniczących – tutaj informacja do pana ministra – że na 100 dni rządu będziemy chcieli zorganizować w Ministerstwie Cyfryzacji wspólną konferencję, spotkanie Komisji Cyfryzacji razem z kierownictwem Ministerstwa Cyfryzacji, żebyśmy sobie omówili te wszystkie rzeczy i porozmawiali o tym, co warto kontynuować, a co nie. Uważam, że taka dyskusja też jest przed nami i też mam takie poczucie, że ta dyskusja nie dotyczy wcale tego, czy krytykujemy coś z tego, co było – bo nie chciałbym tak do tego podchodzić – tylko bardziej co zrobić, żeby realizować projekty, które rzeczywiście się opłacają, a te, które można by było jakoś przeorganizować, żeby rzeczywiście je przeorganizować.</u>
<u xml:id="u-1.44" who="#GrzegorzBernardNapieralski">Nie wiem, że firma Bosch wymyśliła takie kapsułki to…</u>
<u xml:id="u-1.45" who="#RadosławKita">Bardzo się cieszę z tego sześciopunktowego programu, który przedstawił pan premier. Uważam, że to jest początek drogi i to taki znakomicie zarysowany. Zabrakło mi tutaj jednej kwestii dotyczącej ochrony praw autorskich. Wydaje mi się, że powinniśmy myśleć w dwóch kierunkach. Z jednej strony modele fundamentalne dość obficie i chętnie korzystają z danych dostępnych na stronach internetowych, danych, do których różne firmy często mają prawo własności i niespecjalnie się tymi prawami własności przejmują. Z drugiej strony powstaje też kwestia ochrony, które zbudowały jakieś systemy z oparciem modeli fundamentalnych i tam może dojść do nadużycia wskutek tego, że firma budująca model niekoniecznie zadbała o ochronę czy uzyskanie praw autorskich do wszystkich treści, które się tam pojawiają. To tyle. Dziękuję bardzo.</u>
<u xml:id="u-1.46" who="#KamilaSotomska">Powiedzieliśmy bardzo dużo o zagrożeniach, z czym się absolutnie zgadzam. Sztuczna inteligencja jest czymś, co musimy dobrze uregulować, niesie ze sobą bardzo dużo zagrożeń, ale również bardzo wiele szans. Wiem, że wypowiedzi pana dyrektora, jak również pana profesora miały na celu podniesienie świadomości na temat tego, jakie zagrożenia idą za sztuczną inteligencją, natomiast chciałabym, żebyśmy w tej dyskusji nie zgubili też szans, które sztuczna inteligencja przed nami otwiera. Dla przykładu nasz opensource’owy AlphaFold już kilka lat temu, dwa–trzy lata temu przewidział wszystkie struktury ludzkich białek, to jest osiągnięcie na poziomie dekodowania ludzkiego genomu. Ten model jest udostępniony w domenie open source i w tym momencie korzysta z niego 1,7 mln badaczy na całym świecie, żeby tworzyć nowe leki, nowe szczepionki, ale też nowe sposoby walki z zanieczyszczeniem środowiska. To tak tylko w celu wyrównania, może trochę dyskusji. Absolutnie nie deprecjonując zagrożeń, które są związane ze sztuczną inteligencją, nie zapominajmy też o szansach, które ona niesie.</u>
<u xml:id="u-1.47" who="#KamilaSotomska">Chciałam też odnieść się do wypowiedzi pana profesora Biecka, w której pobrzmiewały produkty Google. Dlatego też chciałabym nie tyle sprostować, co po prostu dodać.</u>
<u xml:id="u-1.48" who="#KamilaSotomska">Jeśli chodzi o samochody autonomiczne trenowane w Kalifornii – w tym momencie są to samochody Waymo, z półki Alphabet, nawet nie firmy Google. Natomiast na ten moment nie ma żadnych planów, żeby jeździły one po polskich górach ani nawet po ulicach Unii Europejskiej. To tylko takie delikatne sprostowanie. Jednocześnie rzeczywiście case badaczki Google, która zauważyła, że modele nie rozpoznają w odpowiedni sposób twarzy mniejszości narodowych, oczywiście jest to sprawa, która jest znana publicznie, natomiast to się odbyło dobrych kilka lat temu, bodajże 2016 czy 2018. Od tej pory był w tej dziedzinie bardzo duży postęp. W tym momencie Google jest liderem dostarczania narzędzi opensource’owych, które pomagają badaczom na całym świecie tworzyć narzędzia, które pomagają zwiększać tzw. equity sztucznej inteligencji. To są na przykład narzędzia What-If-Tool, które umożliwiają programistom sprawdzenie, w jaki sposób ich aplikacja działa dla różnych grup społecznych. Tak samo Google udostępnia w domenie opensource’owej narzędzie Know Your Data, które pozwala sprawdzić czy zbiór danych treningowych, dla których jest trenowana dana aplikacja sztucznej inteligencji rzeczywiście spełnia wytyczne etyczności.</u>
<u xml:id="u-1.49" who="#KamilaSotomska">Wydaje mi się, że to wszystko, jeśli chodzi o kwestie bezpieczeństwa, bo oczywiście pozostajemy w stałym kontakcie z regulatorami, organizacjami pozarządowymi, organizacjami naukowymi, aby upewnić się, że sztuczna inteligencja, którą tworzymy, spełnia najwyższe standardy etyczności i bezpieczeństwa, żeby była użyteczna dla wszystkich.</u>
<u xml:id="u-1.50" who="#KamilaSotomska">Ostatni punkt, który chciałabym poruszyć, to jest właśnie kwestia kompetencji, które tutaj wybrzmiały. Absolutnie zgadzamy się ze skalami wyzwań, które stoją przed społeczeństwem i ze skalami zmian. Rozwój kompetencji jest kluczowy dla tego, żeby sztuczna inteligencja i rewolucja technologiczna – która w tym momencie trwa – była korzystna dla wszystkich, a nie tylko dla wybranych grup społecznych. Dlatego też w zeszłym tygodniu Google ogłosił nowy program „AI Opportunity Initiative for Europe”, w ramach którego przeznaczy 25 mln euro na szkolenia z zakresu sztucznej inteligencji, na programy wsparcia dla grup najbardziej narażonych oraz na programy wsparcia dla start-upów oraz organizacji pozarządowych. Dziękuję.</u>
<u xml:id="u-1.51" who="#GrzegorzBernardNapieralski">Natomiast proszę się nie martwić o ten samochód, który tam jeździł, bo to był raczej przykład, żeby pokazać jak sztuczną inteligencję trzeba wszystkiego uczyć, żeby mogła jeździć nie tylko po Kalifornii, ale także po naszych pięknych polskich górach i żeby nie było żadnego problemu.</u>
<u xml:id="u-1.52" who="#GrzegorzBernardNapieralski">Proszę bardzo, czy jest jeszcze jakaś chętna osoba do zabrania głosu? Jeżeli nie ma, to zamknę ten po…Pan dyrektor, bardzo proszę.</u>
<u xml:id="u-1.53" who="#GrzegorzBernardNapieralski">Przechodzimy do drugiego punktu. Drugi punkt to jest ustawa o zmianie ustawy o związkach zawodowych. Zrobię krótkie wprowadzenie, ponieważ ta ustawa była przedmiotem dyskusji parlamentarnej w poprzedniej kadencji. Wtedy z Uniwersytetem Łódzkim, z zespołem pana profesora Stefańskiego, ze związkami zawodowymi, ale również korzystając z ekspertów, którzy pracowali z naszą podkomisją, przygotowaliśmy taki projekt ustawy, który w najprostszych słowach miał dotyczyć tego, aby było poczucie sprawiedliwości i była wiedza, co dzieje się w tych firmach, gdzie pracę człowieka tak naprawdę oceniają algorytmy. Chciałbym otworzyć dyskusję na ten temat. Czy pan profesor? Bo tak patrzę. Bardzo proszę, panie profesorze. Oddaję głos. A potem jeżeli związki zawodowe chcą zabrać głos, to też bardzo proszę. I przejdziemy do dalszej dyskusji. Proszę bardzo.</u>
<u xml:id="u-1.54" who="#KrzysztofStefański">Po pierwsze, mogę powiedzieć o tym, że jasne jest dla nas, że jest to pewien pierwszy krok, bo regulacja sztucznej inteligencji w zakresie prawa pracy musi być znacznie, znacznie szersza. Tak jak powiedziałem – to jest pewna odpowiedź na postulaty i na te najbardziej palące potrzeby.</u>
<u xml:id="u-1.55" who="#KrzysztofStefański">Po drugie, zdaję sobie też sprawę z pewnych mankamentów tego rozwiązania i myślę, że jest to jeszcze do przepracowania choćby z punktu widzenia tego największego oporu pracodawców, bo z reguły pracodawcy, którzy posługują się algorytmami w celu zarządzania pracownikami odmawiają udzielania takich informacji, dlatego że uznają te schematy działania algorytmów za tajemnicę firmy, za tajemnicę handlową. I być może warto by było odnieść się do takiego przepisu Kodeksu pracy, to jest bodaj art. 241 ze znaczkiem 4 Kodeksu pracy, który nakazuje pracodawcy udzielania przedstawicielom związków zawodowych informacji o swojej sytuacji ekonomicznej i objętej rokowaniami. Również nakazuje przedstawicielom związków zawodowych nieujawnianie szerzej tych informacji. Być może warto byłoby wprowadzić takie zastrzeżenie również do tego projektu. To jest oczywiście pewna ważna kwestia, ale nie zmienia to faktu, że ta regulacja jest naszym zdaniem potrzebna i bardzo cieszę się, że Komisja zajęła się tą regulacją. Oczywiście w pełni jesteśmy do dyspozycji gdybyśmy mogli w czymkolwiek pomóc w dalszych pracach parlamentarnych. Bardzo dziękuję.</u>
<u xml:id="u-1.56" who="#GrzegorzBernardNapieralski">Przedstawiciele związków zawodowych OPZZ, tak? Nie? Solidarność? Proszę, przepraszam.</u>
<u xml:id="u-1.57" who="#RobertLisicki">Podchodzimy do tego projektu z dużą ostrożnością. Skierujemy do państwa naszą opinię na piśmie, natomiast chciałbym pozwolić sobie na kilka uwag dotyczących tego projektu.</u>
<u xml:id="u-1.58" who="#RobertLisicki">Po pierwsze, dlaczego z ostrożnością i pewnymi obawami podchodzimy do tej regulacji? Pewnie lepiej ode mnie wiecie państwo jak złożoną kwestią jest sztuczna inteligencja i pojęcie zarządzania algorytmicznego. Na dzień dzisiejszy nie odnajduję w naszym ustawodawstwie definiowania tych pojęć, być może jestem w błędzie, to będę prosił pana profesora o sprostowanie. Natomiast mamy takie obawy co do projektu ustawy, że rzecz, która wymaga systemowego podejścia i przeanalizowania próbujemy wprowadzić w fragmentaryczną regulację, nie do końca dając odpowiedź przyszłym użytkownikom tych przepisów, co tak naprawdę chcielibyśmy osiągnąć przez pojęcia parametrów, zasad, instrukcji algorytmów i sztucznej inteligencji. Obecnie członkowie naszej firmy nie za bardzo wiedzą, czego tak naprawdę się od nich oczekuje albo jak daleko pójdzie wymagana informacja w kierunku związków zawodowych. Sprawa jest o tyle złożona, że tak naprawdę – o ile dobrze wiem – kończymy pracę nad rozporządzeniem unijnym w sprawie sztucznej inteligencji gdzie pojawi się ta definicja i gdzie też pojawią się obowiązki podmiotów stosujących systemy sztucznej inteligencji w stosunku do przedstawicieli pracowników i samych pracowników. Mam wrażenie, że po wejściu w życie tego rozporządzenia trzeba będzie dokonać pewnego uszczegółowienia krajowych przepisów w kontekście tego rozporządzenia unijnego. Nie udało się zamknąć prac nad dyrektywą w sprawie pracowników platform cyfrowych gdzie był osobny, bardzo rozbudowany, rozdział dotyczący stosowania zarządzania algorytmicznego.</u>
<u xml:id="u-1.59" who="#RobertLisicki">I trzeci wątek – myślę, że też warto by było poświęcić temu jeszcze chwilę – Komisja Europejska zapowiedziała w tym roku przeprowadzenie badań i analiz w kontekście zastosowania algorytmów sztucznej inteligencji w obszarze zatrudnienia w latach 2025–2027. Bodajże w tym okresie, nie chcę skłamać. Przynajmniej komisja do spraw zatrudnienia zapowiadała inicjatywę legislacyjną w tym obszarze, ale powiedziała, że po prostu potrzebuje więcej informacji i badań rynku na temat tego, jak to wygląda. Rozmawiałem z naszymi firmami członkowskimi, mamy zdiagnozowane firmy członkowskie, które mają świetną świadomość tego, że korzystają z zarządzania algorytmicznego bądź też ze sztucznej inteligencji. Myślę, że w tej chwili zdecydowana większość małych i średnich firm nie ma świadomości czy program, którego pracodawca używa do rekrutacji, wykorzystuje systemy sztucznej inteligencji i zarządzania algorytmicznego.</u>
<u xml:id="u-1.60" who="#RobertLisicki">Jesteśmy otwarci na dyskusje, tak naprawdę widzimy potrzebę odniesienia się do kwestii zastosowania sztucznej inteligencji i zarządzania algorytmicznego na rynku pracy. Natomiast mam taki postulat o jeszcze trochę czasu na zastanowienie się w kontekście i legislacji unijnej i samych pojęć użytych w tym projekcie, które w naszej ocenie będą budziły wiele wątpliwości i problemów w przyszłości, jeżeli chodzi o zastosowanie tego przepisu.</u>
<u xml:id="u-1.61" who="#RobertLisicki">Na koniec dnia dodam – i to jest pewnie też pytanie do strony związkowej – wydaje nam się, że na ten moment art. 28 z ustawy o związkach zawodowych daje już prawo pytania się pracodawcy o stosowane systemy, które mają wpływ na zatrudnienie. Tylko pytanie, co my chcemy uzyskać. Czy chcemy znać parametry, zasady, instrukcje, czego do końca dzisiaj nie potrafimy zdefiniować, czy chcemy dać związkom zawodowym prawo, żeby mieli świadomość, że te systemy są stosowane, w jakim celu są stosowane, jak tak naprawdę mogą wpływać na warunki zatrudnienia pracownika. Moim zdaniem to są dwie różne sprawy. Czyli pytanie, co chcemy uzyskać, jaką informację i czemu ona ma służyć w kontekście związków zawodowych. Bo nie wiem, czy sama informacja o parametrach, zasadach i instrukcjach da odpowiedź przedstawicielom związków zawodowych jak ona wpływa na możliwość i warunki zatrudnienia pracownika. Dziękuję bardzo.</u>
<u xml:id="u-1.62" who="#GrzegorzBernardNapieralski">Otóż po pierwsze, chciałabym pana uspokoić. Przygotowaliśmy ten projekt w zeszłej kadencji, czekając tak naprawdę na przepisy unijne, ponad podziałami, współpracując również z izbami gospodarczymi, że to są ważne przepisy. Pracownicy też przychodzili i nam to mówili. To jest rzecz pierwsza.</u>
<u xml:id="u-1.63" who="#GrzegorzBernardNapieralski">Rzecz druga – my dzisiaj nie rozstrzygniemy tej ustawy, że ona już zostanie przegłosowana przez podkomisję, bo ona musi trafić na Komisję, potem przejść całą drogę legislacyjną w Sejmie i Senacie, gdzie spokojnie możemy dyskutować. To po drugie.</u>
<u xml:id="u-1.64" who="#GrzegorzBernardNapieralski">Po trzecie, czekając na wszystkie badania rynków, na wszystkie rozwiązania, które są, to możemy tak czekać jeszcze kilka lat, a przepisy są konieczne tu i teraz. Proszę zwrócić uwagę, że ta ustawa daje tak naprawdę tylko możliwość informacji. Tam nie ma takich regulacji, o których pan mówi, które coś nakazują, zakazują itd.</u>
<u xml:id="u-1.65" who="#GrzegorzBernardNapieralski">Panie dyrektorze, moja propozycja jest taka – jeżeli pozytywnie zaopiniujemy to dzisiaj na podkomisji i trafi to do prac Komisji Cyfryzacji, to spokojnie tam możemy przeprowadzić tę dyskusję. My jesteśmy absolutnie otwarci na taki dialog.</u>
<u xml:id="u-1.66" who="#GrzegorzBernardNapieralski">Przed przedstawicielem związków zawodowych, pan poseł Cieszyński, bardzo proszę. Tak, tak, proszę bardzo.</u>
<u xml:id="u-1.67" who="#PawełŚmigielski">Nawiązując też do pana profesora w przedmiocie obaw pracodawców, co do ochrony tajemnicy przedsiębiorstwa – proszę państwa, w mojej ocenie przecież mamy już dzisiaj stosowne przepisy Kodeksu pracy, myślę o art. 100, który mówi, że w ramach obowiązków pracowniczych jest dbanie o mienie pracodawcy, o dobro zakładu pracy, a także o zachowanie informacji w tajemnicy, jeżeli ta informacja miałaby przynieść zakładowi pracy szkodę, prawda? Jest także ustawa o nieuczciwej konkurencji, tam też są daleko idące przepisy – nawet karne – w stosunku do osoby, która ujawnia tajemnicę przedsiębiorstwa. Proszę państwa, w mojej ocenie ten projekt ustawy jest ważny i OPZZ od samego początku go wspiera i ma nadzieję, że jak najszybciej wejdzie do ustawy o związkach zawodowych. Dziękuję bardzo.</u>
<u xml:id="u-1.68" who="#MichałNowakowski">Po pierwsze, to kwestia ewentualnej ochrony tajemnicy przedsiębiorstwa oraz interesu pracodawcy. One muszą zostać w jakiś sposób uwzględnione, być może są uwzględnione na poziomie innych przepisów, nie twierdzę, że nie, ale być może trzeba bardziej przeanalizować i być może jeszcze w jakiś sposób wzmocnić to odpowiednimi przepisami.</u>
<u xml:id="u-1.69" who="#MichałNowakowski">I druga kwestia, to jest kwestia ochrony prywatności, de facto też danych osobowych. Wydaje mi się, że w tym projekcie nie zostało to w żaden sposób uwzględnione. Być może wynika to z tego, że takiego problemu nie ma, ale obawiam się, że jednak jeżeli mamy bardzo niedookreślone przepisy, to mogą pojawić się sytuacje, łącząc to na przykład z tym, o czym powiedział profesor Biecek, czyli kwestią wyjaśnialności algorytmów itd, że na przykład dane osobowe czy kwestie związane z ochroną prywatności pracowników, w ramach tego ważnego przepisu mogą zostać ujawnione.</u>
<u xml:id="u-1.70" who="#MichałNowakowski">W związku z tym mam taki postulat, żeby uwzględnić te kwestie właśnie na etapie ewentualnych zmian do samego przepisu. Dziękuję bardzo.</u>
<u xml:id="u-1.71" who="#WeronikaKowalik">Jeśli tylko mogę króciutko podpowiedzieć – są dwie regulacje, w których już zautomatyzowane podejmowanie decyzji i uwzględnienie praw osób, których to dotyczy w rozumieniu też RODO, czyli Rozporządzenia o Ochronie Danych Osobowych i art. 22 są w tej chwili w dwóch ustawach, oczywiście dotyczących innych zagadnień, a mianowicie jest to prawo bankowe i ocena zdolności kredytowej w sposób zautomatyzowany oraz ustawa ubezpieczeniowa oraz reasekuracyjna, czyli używanie zautomatyzowanego podejmowania decyzji oceniania w sytuacji oceny ryzyka ubezpieczeniowego. Tam też są regulacje.</u>
<u xml:id="u-1.72" who="#WeronikaKowalik">Jesteśmy otwarci na to, żeby jak najbardziej wspierać, uczestniczyć w dyskusjach, myślę, że jeszcze dodatkowo przedstawimy opinię, a ta, która już została przedstawiona jest jak najbardziej aktualna, chodzi o kompleksową ocenę skutków regulacji. Bardzo dziękuję.</u>
<u xml:id="u-1.73" who="#GrzegorzBernardNapieralski">Pytam teraz kolegów parlamentarzystów, bo skończyła się kadencja Sejmu i musimy jeszcze raz wnieść to do laski marszałkowskiej – rozumiem, że jest zgoda moich kolegów parlamentarzystów? Nie słyszę sprzeciwu. Rozumiem, że pozytywnie zaopiniowaliśmy ten wniosek.</u>
<u xml:id="u-1.74" who="#GrzegorzBernardNapieralski">Na tym wyczerpaliśmy porządek obrad dzisiejszej podkomisji. Bardzo serdecznie chciałem wam podziękować, mam nadzieję, że do zobaczenia niedługo.</u>
</div>
</body>
</text>
</TEI>
</teiCorpus>