text_structure.xml
108 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
<xi:include href="PPC_header.xml" />
<TEI>
<xi:include href="header.xml" />
<text>
<body>
<div xml:id="div-1">
<u xml:id="u-1.0" who="#KrzysztofStefańskiprofucz">Szanowni państwo, witam państwa bardzo serdecznie w murach Wydziału Prawa i Administracji Uniwersytetu Łódzkiego. Witam państwa posłów, witam pana prezydenta miasta Łodzi, witam przedstawicieli Ministerstwa Cyfryzacji, przedstawicieli Urzędu Ochrony Danych Osobowych, witam Okręgowego Inspektora Pracy w Łodzi. Szczególnie serdecznie witam przedstawicieli świata nauki z różnych uczelni, z wielu instytucji naukowych: Polskiej Akademii Nauk, Politechniki Łódzkiej, Instytutu Medycyny Pracy, Politechniki Wrocławskiej, NASK. I oczywiście bardzo serdecznie witam koleżanki i kolegów ze społeczności akademickiej Uniwersytetu Łódzkiego.</u>
<u xml:id="u-1.1" who="#KrzysztofStefańskiprofucz">Proszę państwa, wyjazdowe posiedzenie Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii na naszym wydziale nie byłoby możliwe bez znakomitej współpracy państwa posłów z zespołem AI Work Team, którym mam przyjemność kierować. Inicjatorem tej współpracy i takim dobrym jej duchem jest pan przewodniczący Grzegorz Napieralski, któremu w tym momencie bardzo serdecznie dziękuję.</u>
<u xml:id="u-1.2" who="#KrzysztofStefańskiprofucz">Proszę państwa, dzisiejsze posiedzenie w takim pierwszym drafcie miało skupiać się na problematyce wpływu sztucznej inteligencji na prawo pracy i rynek pracy, jednak ustaliliśmy, że warto skorzystać z okazji, jaką jest wizyta państwa posłów u nas i ukazać problematykę rozwoju sztucznej inteligencji szerzej, także w innych aspektach. Stąd taki program wystąpień. Bardzo dziękuję, panie przewodniczący.</u>
<u xml:id="u-1.3" who="#BartłomiejPejo">Panie profesorze, szanowni Państwo, otwieram wyjazdowe posiedzenie Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii. Stwierdzam kworum.</u>
<u xml:id="u-1.4" who="#BartłomiejPejo">Witam państwa posłów, witam panią profesor Monikę Bogucką-Felczak, Dziekana Wydziału Prawa i Administracji Uniwersytetu Łódzkiego, na którym odbywają się dzisiejsze obrady – serdecznie dziękujemy za przyjęcie. Witam pana wiceprezydenta Łodzi pana Adama Wieczorka. Witam przedstawicieli Ministerstwa Cyfryzacji, Urzędu Ochrony Danych Osobowych oraz okręgowego inspektora pracy w Łodzi. Witam przedstawicieli świata nauki z ośrodków akademickich w Łodzi i we Wrocławiu. Witam także naszych dzisiejszych prelegentów: raz jeszcze witam pana profesora Krzysztofa Stefańskiego z Wydziału Prawa i Administracji Uniwersytetu Łódzkiego. Goszczący nas dziś wydział reprezentują także: pani profesor Sylwia Wojtczak, pani profesor Marlena Sakowska-Baryła. Serdecznie witamy. Witam panią profesor Jolantę Walusiak-Skorupę, dyrektora Instytutu medycyny pracy w Łodzi. Wśród dzisiejszych prelegentów jest także pan profesor Maciej Piasecki z Politechniki Wrocławskiej, witamy serdecznie. Pani doktor Dominika Kaczorowska-Spychalska z Wydziału Zarządzania Uniwersytetu Łódzkiego, witamy bardzo serdecznie.</u>
<u xml:id="u-1.5" who="#BartłomiejPejo">Szanowni Państwo, porządek dzisiejszego posiedzenia przewiduje zapoznanie się z informacją przedstawicieli Wydziału Prawa i Administracji Uniwersytetu Łódzkiego oraz innych uczelni wyższych w Łodzi na temat koniecznych regulacji prawnych dotyczących zastosowania algorytmów i sztucznej inteligencji na rynku pracy.</u>
<u xml:id="u-1.6" who="#BartłomiejPejo">Czy są uwagi do porządku dziennego? Uwag nie słyszę. Wobec niezgłoszenia uwag do porządku dziennego, stwierdzam jego przyjęcie. Zanim poproszę o przedstawienie informacji, oddaję głos pani dziekan, pani Monice Boguckiej-Felczak. Bardzo proszę, pani dziekan.</u>
<u xml:id="u-1.7" who="#MonikaBoguckaFelczakprofucz">Wdrażanie narzędzia, jakim jest sztuczna inteligencja, stanowi niewątpliwie jedno z największych wyzwań współczesnego świata. Przyznaje, że stanowi jedno z najważniejszych wyzwań także dla uczelni wyższych, które mają obowiązek zadbać o pozyskanie kompetencji cyfrowych przez pracowników oraz studentów. Powszechne zastosowanie sztucznej inteligencji niewątpliwie zmieni otaczającą nas rzeczywistość. Od nas zależy, czy na lepsze. W związku z tym to wdrażanie musi przebiegać w sposób wyważony, mądry, eliminujący wątpliwości natury etycznej i niewątpliwie uwzględniający głosy przedstawicieli różnych dziedzin nauki.</u>
<u xml:id="u-1.8" who="#MonikaBoguckaFelczakprofucz">Niezwykle się cieszę, że panie i panowie posłowie zechcieliście wsłuchać się w głosy naukowców zajmujących się tym zagadnieniem, tak by wypracować możliwie najlepsze rozwiązania normatywne. Cieszę się również, że został dostrzeżony wkład w ten obszar wiedzy, poczyniony przez wydziałowy zespół AI Work Team, a także Centrum Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego. Mam nadzieję, że współpraca pomiędzy naukowcami i przedstawicielami ustawodawcy zostanie w najbliższym czasie pogłębiona, będzie się w dalszych latach rozwijać. Tego nam naukowcom, ale i państwu serdecznie życzę; życzę prelegentom udanych, wspaniałych wystąpień, a wszystkim państwu pogłębionej merytorycznej debaty. Dziękuję bardzo,</u>
<u xml:id="u-1.9" who="#AdamWieczorek">A tematyka jest szczególna. I bardzo zwięźle powiem – dzisiaj algorytmy i sztuczna inteligencja w wielu przypadkach zarządza rzeczywistością, a chyba chcielibyśmy bardzo, żebyśmy to my byli tymi, którzy sprawią, że będziemy nią zarządzać. I przed Komisją, Ministerstwem Cyfryzacji stoi ogromne zadanie: stworzenie takich ram prawnych funkcjonowania tej przestrzeni, o której dzisiaj będziemy rozmawiali, aby była zarządzana w sposób możliwie najlepszy dla naszego społeczeństwa.</u>
<u xml:id="u-1.10" who="#AdamWieczorek">A jest to bardzo ważne, ponieważ ta tematyka została poruszona i zauważona. Postęp technologiczny, który następuje, jest tak dynamiczny jak nigdy. I myślę, że wszyscy, którzy tutaj zasiadają w Komisji, ja jako przedstawiciel władz miasta, pani Dziekan jako przedstawiciel świata naukowego i świata akademickiego, zauważamy, że dzisiaj jesteśmy w momencie, kiedy mamy chyba ostatnie chwile, aby pewne kwestie uregulować. Z tego względu bardzo dziękuję, że ta tematyka jest poruszana i że w tak zacnym, tak licznym gronie podejmują państwo te kwestie jako wyzwanie, aby je uregulować.</u>
<u xml:id="u-1.11" who="#AdamWieczorek">Spotykamy się w łódzkim „Paragrafie”, który wychował rzesze fantastycznych prawników, fantastycznych specjalistów w zakresie prawa, dzisiaj również pracujących na tej uczelni. I służymy swoją pomocą, aby wesprzeć Komisję w tym zakresie, aby stworzyć możliwie najlepsze regulacje; aby Ministerstwo Cyfryzacji otrzymało od nas wsparcie, a państwo mogli również skonsultować z nami różne kwestie w tym obszarze merytorycznym, który dynamicznie się zmienia. I żeby ten łódzki wkład w tę tematykę mógł funkcjonować jako pewien element wsparcia.</u>
<u xml:id="u-1.12" who="#AdamWieczorek">W składzie państwa Komisji jest osoba będąca do niedawna przedstawicielem naszego Urzędu Miasta Łodzi. To pan Paweł Bliźniuk, obecny poseł, z którym miałem przyjemność pracować, na co dzień zajmować się kwestią cyfryzacji w obszarze działań Urzędu Miasta Łodzi. Jest to jego konik. A zatem jako Urząd Miasta Łodzi, jako Łódź, wspieramy Komisję naszymi najlepszymi zasobami w tym temacie. Mam nadzieję, że wszyscy wspólnie wykorzystamy tę pracę. Życzę udanego spotkania i owocnych wniosków wynikających z tego spotkania i z tej Komisji. Dziękuję bardzo.</u>
<u xml:id="u-1.13" who="#BartłomiejPejo">Szanowni Państwo, przechodzimy teraz do realizacji porządku dziennego. Proszę o zabranie głosu pana profesora Krzysztofa Stefańskiego, kierownika zespołu roboczego do spraw sztucznej inteligencji, działającego przy Wydziale Prawa i Administracji Uniwersytetu Łódzkiego. Pan profesor przedstawi informację na temat rozwoju sztucznej inteligencji jako wyzwania dla polskiego rynku pracy i prawa pracy. Niestety, ramy czasowe naszego posiedzenia wymuszają wprowadzenie ograniczeń czasowych. W związku z tym ustalam czas prezentacji poszczególnych tematów na 10 minut. Oddaję głos – bardzo proszę, panie profesorze.</u>
<u xml:id="u-1.14" who="#KrzysztofStefańskiprofucz">Natomiast społecznie niezwykle nurtuje nas kwestia wpływu sztucznej inteligencji na rynek pracy. I nie mamy wątpliwości, że ta technologia spowoduje rewolucję na tym rynku. Możemy ten wpływ badać różnorodnie – zarówno ilościowo, czyli zastanawiać się, ile zawodów zostanie dotkniętych rozwojem sztucznej inteligencji, jak i jakościowo, czyli zastanawiać się, które zawody znikną bądź będą musiały się zmienić. Badania są bardzo różne: z niektórych wynika, że rozwój sztucznej inteligencji dotknie 700 zawodów, z innych, że 47% zawodów.</u>
<u xml:id="u-1.15" who="#KrzysztofStefańskiprofucz">Mamy bardzo różne prognozy – według tych najbardziej czarnych powstanie grupa ludzi, która nie będzie tylko bezrobotnymi, to będą ludzie niezatrudnialni, dlatego że ich prace będzie wykonywać sztuczna inteligencja, a oni nie będą mieli kwalifikacji do tego, żeby świadczyć inną pracę. Oczywiście możemy sobie wyobrazić, jakie problemy społeczne taka grupa mogłaby stwarzać. Mamy też prognozy bardziej optymistyczne, łącznie z takimi, że sztuczna inteligencja spowoduje rozwój rynku pracy i będzie tych miejsc pracy generować więcej niż ich likwidować. Tyle że nawet biorąc pod uwagę te najbardziej optymistyczne założenia, musimy być przygotowani na bezrobocie technologiczne, dlatego że osoby, które wykonują pracę świadczoną przez sztuczną inteligencję, nie będą w stanie szybko przekwalifikować się do nowych wyzwań czy nowych zawodów.</u>
<u xml:id="u-1.16" who="#KrzysztofStefańskiprofucz">Wszystko zależy jeszcze od kraju, od poziomu jego innowacyjności i poziomu chęci jego poszczególnych firm do inwestowania w sztuczną inteligencję. Jeśli chodzi o Polskę, to możemy się pochwalić tym, że ponad połowa dużych i średnich przedsiębiorstw inwestuje w tę technologię, a około jednej piątej zakończyło już niektóre etapy implementacji. A biorąc pod uwagę, że 80% firm, które wdrożyły rozwiązania bazujące na sztucznej inteligencji, jest z tego zadowolone, to nie mamy się co dziwić, że czekają nas kolejne inwestycje. Macie państwo tutaj na slajdzie informacje, które tak naprawdę dotyczą dużych i średnich przedsiębiorstw, które już wprowadziły rozwiązania sztucznej inteligencji. One bardzo chętnie chcą dalej wprowadzać te technologie.</u>
<u xml:id="u-1.17" who="#KrzysztofStefańskiprofucz">Natomiast jeżeli mamy zastanawiać się, jakie zawody dotknie rozwój sztucznej inteligencji, no to tutaj możemy zastosować takie podejście, które nazwałem egalitarnym, czyli dotyczące prostych prac, niewymagających wysokich kwalifikacji, i podejście elitarne, które dotyczy takich zawodów wymagających wiedzy czy kwalifikacji specjalistycznych. Jeśli chodzi o to pierwsze, to wszystkie proste prace magazynowe czy produkcyjne, przy produkcji taśmowej, prace wykonywane, można powiedzieć, dosyć maszynowo, również w transporcie kolejowym czy też transporcie magazynowym, to to już się dzieje.</u>
<u xml:id="u-1.18" who="#KrzysztofStefańskiprofucz">Natomiast… no właśnie, wiecie państwo, co to jest? To jest Volvo Vera. To nie jest nowy samochód sportowy marki Volvo, to jest, proszę państwa, autonomiczny ciągnik siodłowy, który ma za zadanie wyeliminować ciężarówki, które znamy. Trzeba pamiętać, że w transporcie drogowym najdroższym komponentem – przepraszam, że tak o tym mówię – jest pracownik, jest kierowca. Trzeba mu płacić wynagrodzenie, które wcale nie jest niskie, trzeba mu zapewnić odpowiednie okresy odpoczynku, trzeba mu zapewnić pełen socjal. Jeżeli wyeliminujemy kierowcę, to taka ciężarówka będzie w stanie jednym ciągiem jechać z Portugalii do Polski bez problemu. I o to idzie w walce firm motoryzacyjnych, a nie o małe autka osobowe jeżdżące gdzieś tam po drogach Arizony.</u>
<u xml:id="u-1.19" who="#KrzysztofStefańskiprofucz">To jest naprawdę wielki przemysł. Również, proszę państwa, w branżach, które do niedawna wydawały się bardzo oporne na cyfryzację. Mamy przykłady chociażby w rolnictwie. To są autonomiczne pojazdy, które są w stanie analizować poszczególne roślinki na polu i jeżeli znajdą jeden chwast, to wypalą go promieniem lasera; jeżeli dojdą do wniosku, że dana roślinka na polu wymaga nawozu, to będą dozować go do tej konkretnej rośliny. To już się dzieje, to nie jest science fiction.</u>
<u xml:id="u-1.20" who="#KrzysztofStefańskiprofucz">Dalej mamy całą masę prac niebezpiecznych, w których kierowane sztuczną inteligencją roboty, mogą świetnie zastąpić człowieka. Usługi, sprzedaż ubezpieczeń, biletów lotniczych, chatboty… Państwo zamawiacie taksówkę czy wzywacie kuriera? Przecież wtedy najczęściej to pierwsze spotkanie z firmą, to nie jest spotkanie z człowiekiem.</u>
<u xml:id="u-1.21" who="#KrzysztofStefańskiprofucz">Jeśli chodzi o prace, które wymagają już większych kwalifikacji, na przykład polegające na analizie danych, zwłaszcza w dużych ilościach, to tutaj człowiek nie ma najmniejszych szans. Programy inwestycyjne na giełdach, analiza ryzyka – to robi sztuczna inteligencja. Również prace biurowe: sztuczna inteligencja projektuje domy, sztuczna inteligencja pisze programy komputerowe, pisze maile, robi notatki ze spotkań, które mogą odbywać się w różnych językach. To jest codzienność, to się już odbywa w polskich firmach, proszę państwa.</u>
<u xml:id="u-1.22" who="#KrzysztofStefańskiprofucz">Jeśli chodzi o wysoce wykwalifikowanych pracowników takich jak lekarze czy prawnicy, to dzięki narzędziom sztucznej inteligencji można zastąpić specjalistów osobami o niższych kwalifikacjach. Jeżeli ktoś z państwa, czego nikomu nie życzę, odniesie kontuzję i będzie musiał prześwietlić sobie rękę czy nogę, zrobić zdjęcie rentgenowskie, to to zdjęcie opisze wam sztuczna inteligencja. Tak – w polskiej służbie zdrowia. Tak, dzisiaj. A technik radiologii albo lekarz radiolog ewentualnie to skontroluje. Albo i nie. Asystent lekarza to też codzienność. Oczywiście pojawia się problem niezawodności czy odpowiedzialności, ale to już jest inna kwestia, zresztą bardzo zresztą duże wyzwanie stojące przed nami, prawnikami.</u>
<u xml:id="u-1.23" who="#KrzysztofStefańskiprofucz">Jeśli chodzi o prace prawnicze – projekty umów, analizę orzecznictwa, prognozowanie wyroków – to to robi sztuczna inteligencja. Ba, sztuczna inteligencja orzeka jako sędzia, sądząc chociażby proste sprawy w Estonii, takie jak nakazy płatnicze w pierwszej instancji. Zresztą wygenerowałem te obrazki za pomocą generatywnej sztucznej inteligencji na potrzeby dzisiejszej prezentacji, to też jest ciekawostka.</u>
<u xml:id="u-1.24" who="#KrzysztofStefańskiprofucz">Proszę państwa, prace wymagające twórczego podejścia: sztuczna inteligencja pisze muzykę, pisze wiersze, maluje obrazy. Tutaj macie państwo nie najlepszą jakość tego zdjęcia, ale to jest „Portret Edmonda Belamy’ego” sprzedany za niemal pół miliona dolarów w 2018 roku. A obok obraz „Opera kosmiczna”, który dwa lata temu wygrał w Stanach Zjednoczonych bardzo prestiżowy konkurs artystyczny. Oba wygenerowała sztuczna inteligencja.</u>
<u xml:id="u-1.25" who="#KrzysztofStefańskiprofucz">Oczywiście istnieją pewne trudności, chociażby w pracach, które wymagają inteligencji emocjonalnej czy rozsądku. I są też zawody, których najzwyczajniej na świecie nie opłaca się cyfryzować – przynajmniej uchodzą za takie. I tutaj ciekawostka, takim zawodem jest archeolog. Podobno nie jest to opłacalne – przynajmniej dla firm, które wdrażają sztuczną inteligencję.</u>
<u xml:id="u-1.26" who="#KrzysztofStefańskiprofucz">Proszę państwa, na rynku pracy mamy nowe zjawisko. Bardzo nowe, dlatego że mówi się o tym dosłownie od kilku tygodni. To jest zjawisko znikania miejsc pracy dla młodzieży, dla młodych ludzi; miejsc pracy, dających możliwości odbywania stażu czy zdobywania umiejętności, bo te prace asystenckie, które wykonywali początkujący pracownicy, dziś realizuje sztuczna inteligencja. Widzicie państwo, co trzecia firma wdrażająca rozwiązania oparte na sztucznej inteligencji w Polsce zmniejszyła rekrutację na stanowiska wymagające małego doświadczenia. To jest gigantyczny problem z punktu widzenia młodych ludzi wchodzących na rynek pracy, ale też dla kultury firm, dla ich długofalowych perspektyw biznesowych, bo przecież nie jest możliwe zatrudnianie wyłącznie pracowników o bardzo wysokich kwalifikacjach. W korporacjach mówi się o tym, że „nie ma seniora bez juniora” i mają takie stanowiska jak junior manager i tak dalej, i tak dalej. To jest gigantyczny problem, z tym nasi pracodawcy będą musieli sobie poradzić.</u>
<u xml:id="u-1.27" who="#KrzysztofStefańskiprofucz">Jakie są przyczyny? Oczywiście słowo klucz to optymalizacja, dlatego że sztuczna inteligencja wykona wiele prac taniej, szybciej, wygodniej, a coraz częściej lepiej niż pracownik, niż człowiek. Drugim powodem, drugą przyczyną są nasze wybory. Zastanówcie się państwo tak we własnym sumieniu, ile razy skorzystaliście ostatnio z kasy, w której siedzi kasjer, a ile razy z kasy samoobsługowej? Ile razy skorzystaliście z tłumacza, człowieka, który uczył się wiele lat i jest tłumaczem, a ile razy z tłumacza internetowego? Ile razy poszliście na lotnisku do pani czy pana, który tam pracuje i odprawiliście się na podróż lotniczą, a ile razy odprawiliście się na ten lot sami, przez internet? To nasze wybory działają na rynek pracy.</u>
<u xml:id="u-1.28" who="#KrzysztofStefańskiprofucz">I ostatnia kwestia, czyli co możemy zrobić? Jako prawnik, i to jeszcze prawnik, który zajmuje się prawem pracy, powinienem powiedzieć, że powinniśmy zacząć od reformy prawa pracy. Oczywiście musimy to prawo pracy zreformować. Musimy się tym prawem pracy zająć. Zresztą nie tylko prawem pracy, bo reform będzie wymagać również prawo podatkowe, prawo ubezpieczeń społecznych. Teraz, po przyjęciu AI Act, te prace z pewnością będą musiały przyspieszyć. Ta pierwsza ustawa, która teraz jest procedowana w Sejmie, malutka zmiana ustawy o związkach zawodowych, to jest pierwszy kamyczek, który, mam nadzieję, poruszy tę lawinę i zmian będzie znacznie, znacznie więcej.</u>
<u xml:id="u-1.29" who="#KrzysztofStefańskiprofucz">Możliwe do podjęcia są również inne działania związane ze strategią firm czy prowadzeniem polityki społecznej przez państwo. Ale najistotniejsza – i dlatego tutaj zrobiłem to na czerwono – jest edukacja od najmłodszych lat, przez wszystkie poziomy szkół i studiów. Ale to nie wystarczy. Proszę państwa, musimy mieć na uwadze to, że trzeba będzie wdrożyć programy unijne o nauce przez całe życie, bo my jesteśmy ostatnim pokoleniem, które było w stanie pracować od początku do końca kariery w jednej pracy czy w jednym zawodzie. Nasze dzieci i następne pokolenia na pewno nie będą mogły tego robić. W związku z tym musimy być do tego przygotowani i mam nadzieję, że będziemy w stanie sprostać tym wyzwaniom, ale również wielkim szansom, które stają przed nami. A będzie nam łatwiej, gdy będziemy współpracować. W związku z tym współpraca ustawodawcy i świata nauki jest nieodzowna. Bardzo dziękuję.</u>
<u xml:id="u-1.30" who="#BartłomiejPejo">Proszę o zabranie głosu panią profesor Sylwię Wojtczak z Wydziału Prawa i Administracji Uniwersytetu Łódzkiego. Wystąpienie pani profesor będzie poświęcone głównym kierunkom europejskiej legislacji w zakresie regulowania sztucznej inteligencji.</u>
<u xml:id="u-1.31" who="#SylwiaWojtczakprofucz">Zacznę może od tego, że rozwój sztucznej inteligencji, jak to już dzisiaj padło i pewnie będzie padać po wielokroć, zdecydowanie przyspieszył i działania Unii Europejskiej zmierzające do ustanowienia ram prawnych działania sztucznej inteligencji też musiały przyspieszyć. Ale zastanówmy się nad tym, czy mamy tu do czynienia z jakąś synergią, czy te dwa procesy przebiegają równolegle, czy też może jednak nie nadążamy albo nie jesteśmy w stanie nadążyć za tym, co dzieje się w świecie rzeczywistym.</u>
<u xml:id="u-1.32" who="#SylwiaWojtczakprofucz">Przypomnę państwu, że pierwszy model GPT został opracowany zaledwie sześć lat temu, to znaczy w 2018 roku, GPT-2 w 2019 roku, GPT-3 w czerwcu 2020 roku. Sam ChatGPT, czyli ten system, który wykorzystuje model GPT, został uruchomiony jako prototyp 30 listopada 2022 roku, a wersja oparta na modelu GPT-4 została udostępniona 14 marca 2023 roku, a więc w zasadzie dokładnie rok temu.</u>
<u xml:id="u-1.33" who="#SylwiaWojtczakprofucz">Musimy również sobie uświadomić, że to nie są jakieś szczególne wydarzenia na tym rynku i w tej dziedzinie, bo tego rodzaju oprogramowania co GPT jest znacznie więcej, o czym opinia publiczna nawet czasami nie wie. Mamy chatbot Bard, obecnie zwany Gemini, firmy Alphabet, czyli tak naprawdę Google. Mamy Llamę z laboratorium Meta AI. W połowie lutego 2024 roku OpenAI przedstawiła ten nowy model – nie wiem, jak czytać tę nazwę, ale po polsku Sora – który służy do generowania klipów wideo i ten model na podstawie językowego polecenia potrafi tworzyć realistyczne wideo, nieruchomy obraz przerobić na obraz ruchomy. I podoba OpenAI, jak państwo zapewne słyszeli, pracuje teraz nad modelem Q*, który ma być przełomem w rozwoju artificial general intelligence, ponieważ ten model mierzy się z zadaniami matematycznymi. Obecnie podobno na poziomie ucznia szkoły podstawowej, ale to jest i tak duże osiągnięcie, bo jak wiemy te large language models z takimi zadaniami sobie za bardzo nie radzą. Mówię „podobno”, bo o ile się orientuje, te informacje na dzisiaj nie zostały potwierdzone.</u>
<u xml:id="u-1.34" who="#SylwiaWojtczakprofucz">To są wiadomości, które możecie państwo znaleźć nawet w ogólnodostępnej prasie, ale chodzi mi raczej o to, żeby zorientować się, jaka jest dynamika tego procesu i porównać tę dynamikę z dynamiką prac legislacyjnych nad sztuczną inteligencją. Chociaż te prace legislacyjne toczyły się już wcześniej, to na dobre rozgorzały w roku 2017, po słynnej rezolucji Parlamentu Europejskiego z 16 lutego 2017 r., zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki. Od tego czasu powstało morze dokumentów o różnym charakterze: dokumentów eksperckich, różnego rodzaju strategii, aktów normatywnych, projektów aktów normatywnych.</u>
<u xml:id="u-1.35" who="#SylwiaWojtczakprofucz">Oczywiście kluczowe jest to, co stało się dosłownie przed chwilą, a co dotyczy tak zwanego AI Act, czyli rozporządzenia Aktu o sztucznej inteligencji. Przypomnę, że projekt tego rozporządzenia przedstawiono w kwietniu 2021 r., natomiast 28 września 2020 r. przedstawiono projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję. Pewnie nie będę miała czasu odnieść do tego drugiego, ale powiem o tym pierwszym, o AI Act, że był dyskutowany przez dwa lata, zanim projekt został przedstawiony, a następnie, po przedstawieniu, tak jak powiedziałam, już w kwietniu 2021 r., poddano go dalszej dyskusji, która trwała trzy lata. W trakcie tej dyskusji najpierw Rada Unii Europejskiej przyjęła 6 grudnia 2022 roku podejście ogólne do wniosku komisji, potem dyskutowały komisje Parlamentu Europejskiego i przyjęły stanowisko negocjacyjne w czerwcu 2023 roku.</u>
<u xml:id="u-1.36" who="#SylwiaWojtczakprofucz">Potem prowadzono trójstronny dialog międzyinstytucjonalny, o czym też zapewne państwo wiecie, pomiędzy Komisją Unii Europejskiej, Radą Unii Europejskiej i Parlamentem Europejskim, podczas którego to dialogu, a właściwie „trilogu”, przyjęto to polityczne porozumienie, które stało się podstawą do sformułowania ostatecznego tekstu AI Act. I, jak wiemy, ten tekst został zatwierdzony przez Parlament Europejski 13 marca, czyli dosłownie sześć dni temu. To jest w ogóle zabawne, proszę państwa, bo ja swoje wystąpienie przygotowywałam dwa tygodnie temu, po czym nagle z przerażeniem zorientowałam się, że jest ono zwyczajnie nieaktualne. Ale to może i dobrze, bo to, o czym mówię, pozwala wzmocnić tezę, którą chciałam państwu za chwilę przedstawić.</u>
<u xml:id="u-1.37" who="#SylwiaWojtczakprofucz">To rozporządzenie będzie teraz wchodziło w życie. Będą biegły terminy – od sześciu miesięcy do 3 trzech lat – na wydanie aktów delegowanych i wykonawczych, których ma być jakieś 20 sztuk. Oczywiście kraje członkowskie będą musiały w tej kwestii przyjmować też własne akty, co oczywiście będzie też trwało. I teraz, jeśli zestawimy przebieg tego procesu legislacyjnego z tym, jak w ostatnim czasie ta dynamika rozwoju sztucznej inteligencji przebiegała, to możemy się naprawdę zastanowić, czy słusznie obwieściliśmy sukces? Czy w ogóle można obwieścić sukces, mówiąc o tym, że zakończyły się w gruncie rzeczy prace nad tym AI Act? Proszę państwa, to jest, powiedziałabym, bardzo skromny sukces i sukces, który bardzo szybko da nam odczuć, że wszystko jeszcze przed nami.</u>
<u xml:id="u-1.38" who="#SylwiaWojtczakprofucz">Teza mojego dzisiejszego wystąpienia jest taka: otóż nic z uchwaleniem AI Act się nie skończyło, żadne prace się nie zakończyły. Państwa praca dopiero się rozpoczyna. Moja teza, którą chciałam dzisiaj państwu przedstawić, jest taka, że proces regulowania sztucznej inteligencji będzie przebiegał jeszcze bardzo, bardzo długo. Będzie to bardzo, bardzo skomplikowane i w gruncie rzeczy nie możemy w tej chwili przewidzieć, czy kiedykolwiek nastąpi tego zakończenie. Nawiążę do zdania pana wiceprezydenta, który powiedział, że to ostatnie chwile, żeby pewne kwestie uregulować. Nie, to nie są ostatnie chwile, żeby pewne kwestie uregulować. To są pierwsze chwile, kiedy my zaczynamy te kwestie regulować i przed nami jeszcze naprawdę bardzo dużo pracy. W zasadzie ci, którzy zajmują się z kwestiami regulacji sztucznej inteligencji, moim zdaniem mają zatrudnienie do końca życia. Dziękuję.</u>
<u xml:id="u-1.39" who="#BartłomiejPejo">Szanowni państwo, „Zastosowanie systemów opartych na sztucznej inteligencji, a ochrona danych osobowych” to temat referatu, który przedstawi pani profesor Marlena Sakowska-Baryła z Wydziału Prawa i Administracji Uniwersytetu Łódzkiego. Bardzo proszę Pani profesor.</u>
<u xml:id="u-1.40" who="#MarlenaSakowskaBaryłaprofucz">Proszę państwa, mówimy o zastosowaniu systemów opartych na sztucznej inteligencji w bardzo różnych kontekstach. I tu jeden z wielu kontekstów, czyli kwestia ochrony danych osobowych. Od razu pozwolę sobie wskazać, że mamy pewne podstawowe założenie ochrony danych osobowych. To też jest gałąź stosunkowo nowa. Tutaj, nawiązując do tego, o czym powiedziała pani profesor Sylwia Wojtczak, jesteśmy sześć lat po rozpoczęciu stosowania RODO i właściwie wygląda na to, że akt, który jeszcze nie obrósł odpowiednią praktyką, po części nadaje się do nowelizacji, właśnie między innymi z uwagi na kwestie ochrony danych osobowych. Pewnie ze względu na sztuczną inteligencję tak szybko to nie nastąpi. Natomiast jeżeli popatrzymy sobie na te podstawowe założenie, to właściwie jest to założenie, które w momencie, kiedy dostrzeżemy to, w jaki sposób funkcjonuje sztuczna inteligencja, jak bardzo ona oparta jest na danych, w tym między innymi na danych osobowych… Możemy zastanawiać się nad tym, czy ten paradygmat się utrzyma i czy w obliczu sztucznej inteligencji i jej zastosowań ta ochrona jest w ogóle możliwa.</u>
<u xml:id="u-1.41" who="#MarlenaSakowskaBaryłaprofucz">Otóż podstawowym założeniem, jeśli chodzi o ochronę danych, jest kontrola człowieka nad jego sferą informacyjną. Nam ochrona danych osobowych najpewniej kojarzy się ze wspomnianym przeze mnie rozporządzeniem ogólnym o ochronie danych, czyli z RODO.</u>
<u xml:id="u-1.42" who="#MarlenaSakowskaBaryłaprofucz">Natomiast myślę, że warto jest wskazać, że ochrona danych osobowych – może nie w tym finalnym kształcie, ale jej początki – to lata 70. poprzedniego stulecia i także zbiegło się to zdecydowanie z momentem, w którym następowała, jak dzisiaj byśmy powiedzieli, galopująca cyfryzacja, czyli rozwój technologiczny.</u>
<u xml:id="u-1.43" who="#MarlenaSakowskaBaryłaprofucz">Okazało się, że z prawa do prywatności wypączkowało nam zupełnie nowe prawo, nowa dziedzina, jaką jest ochrona danych osobowych. I w tej chwili, przyglądając się temu zestawieniu ochrony danych z tym, jak wygląda sztuczna inteligencja, jak bardzo istotne w jej rozwoju jest posługiwanie się danymi, w tym między innymi danymi osobowymi, być może za chwilkę będziemy mieli do czynienia z pewną zupełnie nową rzeczywistością i jeszcze nowszym podejściem do sfery informacyjnej człowieka.</u>
<u xml:id="u-1.44" who="#MarlenaSakowskaBaryłaprofucz">No więc rzecz, o której już wspomniałam, dane osobowe są bardzo często kluczowym elementem dla wytrenowania modeli sztucznej inteligencji, ale także bywają kluczowe na etapie korzystania z systemów opartych na sztucznej inteligencji. I teraz, patrząc na to z tej perspektywy, my z reguły musimy sobie zadać kilka pytań o to, w którym momencie korzystamy z danych osobowych i w jakim kontekście się to odbywa.</u>
<u xml:id="u-1.45" who="#MarlenaSakowskaBaryłaprofucz">Zdaję sobie sprawę, że przez 10 minut nie jestem w stanie wymienić wszystkich branż, w których przetwarzane są dane osobowe i z którymi związane są modele wykorzystywania sztucznej inteligencji, więc mogłyby tutaj wejść w rachubę. Kiedy mówimy o ochronie danych osobowych, mówimy o pewnym filtrze, który nakładany jest na rzeczywistość, bo niezależnie od tego, w jakiej branży działamy, w nieco innym kontekście z tych danych się korzysta. One być może mają trochę inny charakter. Same dane jako takie są niezwykle kontekstowe, natomiast nie ulega kwestii, że na pewno trzeba pochylić się nad wykorzystaniem danych osobowych nie tylko w odniesieniu do ogólnego założenia sztucznej inteligencji, ale także z tym odpowiednim skupieniem na poszczególnych branżach, w obrębie których z danych osobowych się korzysta.</u>
<u xml:id="u-1.46" who="#MarlenaSakowskaBaryłaprofucz">Tutaj pan profesor Stefański mówił między innymi o wykorzystaniu sztucznej inteligencji w medycynie. To są zupełnie inne dane potrzebne do wytrenowania modelu niż chociażby w wymiarze sprawiedliwości i o tym także była mowa. Bardzo łatwo jest wytrenować model, który działa dyskryminująco, który jest „zbajasowany” właśnie z tego powodu, że został nakarmiony nie takimi danymi.</u>
<u xml:id="u-1.47" who="#MarlenaSakowskaBaryłaprofucz">Posłużyłam się zaledwie dwoma przykładami: medycyny i sądownictwa. A i tutaj można mówić o pewnych spektakularnych, nazwijmy to, pomyłkach, chociażby wtedy, kiedy służące do trenowania modelu dane medyczne dotyczą na przykład osób w pewnym wieku, określonej rasy czy z określonej części globu, gdzie okazuje się, że bardzo często ten sam tak wytrenowany model nie będzie mógł być użyty w stosunku do innych ludzi w innej części globu.</u>
<u xml:id="u-1.48" who="#MarlenaSakowskaBaryłaprofucz">Mamy też problemy związane z nakarmieniem sztucznej inteligencji zdecydowanie starymi danymi z zakresu chociażby spraw karnych i tego, kto, być może patrząc na pewną predykcję, jest bardziej predestynowany do tego, żeby popełniać przestępstwa. Finalnie dochodzi czasami do dość istotnych problemów, jeżeli chodzi o podejmowanie decyzji przez sztuczną inteligencję.</u>
<u xml:id="u-1.49" who="#MarlenaSakowskaBaryłaprofucz">Więc, niejako zmierzając do zbudowania pewnego modelu, pewnej matrycy, według której powinniśmy analizować kwestię danych osobowych w kontekście sztucznej inteligencji, pozwoliłam sobie postawić kilka pytań. Na te pytania pewnie nie znajdziemy dzisiaj odpowiedzi, ale ponieważ jest to pewien przyczynek do dyskusji, to pozwalam sobie postawić je z niewielkim komentarzem i pewnie pozostawić wysoką Komisję z tymi zagadnieniami, bo to będą zagadnienia, które trzeba rozwiązać, także na naszym polu krajowym.</u>
<u xml:id="u-1.50" who="#MarlenaSakowskaBaryłaprofucz">Jakie to są pytania? Po pierwsze – jakiego rodzaju dane mają być wykorzystywane w związku z zastosowaniem systemu sztucznej inteligencji? Na pewno trzeba się skupić na różnego rodzaju zastosowaniach, także na branżach; bardzo mocno skupić się na tym, żeby były to dane odpowiednie, aktualne i reprezentatywne dla tego modelu, który chcemy wytrenować.</u>
<u xml:id="u-1.51" who="#MarlenaSakowskaBaryłaprofucz">Kolejna rzecz – w jaki sposób one będą przetwarzane? Oczywiście samo przetwarzanie danych osobowych to niezwykle szerokie pojęcie, ale to jest pytanie nie bez przyczyny postawione w ten sposób, dlatego że bywa, że jedynie pewien model, pewien element pewnego procesu działania jest oparty na systemie sztucznej inteligencji, a reszta należy tylko do człowieka. W związku z tym trzeba to też odpowiednio zniuansować.</u>
<u xml:id="u-1.52" who="#MarlenaSakowskaBaryłaprofucz">Rzecz, która pewnie będzie wymagała ogromnego wkładu, także intelektualnego, ze strony nie tylko legislatorów czy osób skupionych wokół problematyki sztucznej inteligencji pod kątem legislacyjnym, ale także na pewno prawników etyków, to będzie kwestia realizowania zasad wynikających z art. 5 RODO. To są takie szczególne zasady rozliczalności, które pozwalają nam finalnie wskazać, że to przetwarzanie danych osobowych jest zgodne z prawem i trzyma te europejskie wymagania, które przed przetwarzaniem danych osobowych są postawione.</u>
<u xml:id="u-1.53" who="#MarlenaSakowskaBaryłaprofucz">Kolejna rzecz to kwestia podmiotowa. Tutaj pojawią się pytania, kto jest administratorem, kto podmiotem przetwarzającym, kto subprocesorem? Stawiam te pytania, od razu tutaj zaznaczając zagadnienie odpowiedzialności – inaczej odpowiada administrator, inaczej podmiot przetwarzający, inaczej subprocesor. Musimy się zastanowić nad tym, w którym momencie jesteśmy. Być może trudno nam będzie te role rozdzielić. Mogę nawet powiedzieć jako prawnik, prawniczka praktyk, bo jestem praktykiem, jestem jednocześnie radcą prawnym i wykonując zawód także doradzam w sprawach z zakresu ochrony danych osobowych na granicy ze sztuczną inteligencją. To są problemy, które już dzisiaj powstają i bardzo mocno się rysują. Na ile na przykład podmiot przetwarzający, ktoś, kto wykonuje zlecenie dla administratora, może wykorzystać dane, ten zasób informacyjny, którym dysponuje dla administratora, do wytrenowania swojego modelu sztucznej inteligencji? A na ile może to zrobić subprocesor? To są też niezwykle istotne zagadnienia.</u>
<u xml:id="u-1.54" who="#MarlenaSakowskaBaryłaprofucz">I teraz kwestia tej osoby, której dane dotyczą. Czy pozyskiwać zgody, w jakiej formie je pozyskiwać, jak informować osobę, której dane dotyczą o tego rodzaju przetwarzaniu, tak, żeby jednocześnie wpisać się w ten nurt wyjaśnialności sztucznej inteligencji, jej przewidywalności, tego wszystkiego, co także w sposób dość kompleksowy zostało uregulowane w akcie w sprawie sztucznej inteligencji. A finalnie, co zrobić z tymi danymi po zakończeniu usługi, jak je w międzyczasie zabezpieczać? To są te zagadnienia, na które trzeba zwrócić uwagę.</u>
<u xml:id="u-1.55" who="#MarlenaSakowskaBaryłaprofucz">Zaledwie wspomniałam o predykcji, w związku z tym też zaznaczam to pytanie – czy i w jaki sposób informować o przyjmowanych kryteriach i sposobie oceniania? My przede wszystkim mamy prawo wiedzieć, że podlegamy tego typu zabiegom, że nasze dane są wykorzystywane właśnie w takich celach. I jednocześnie finalnie to jest również ta wyjaśnialność sztucznej inteligencji. Jak to się dzieje, że określone decyzje są podejmowane przez system w stosunku do nas w określony sposób, jak to z tej perspektywy wygląda? Ten wątek wyjaśnialności, przewidywalności sztucznej inteligencji i pewnej rzetelności był bardzo istotnie reprezentowany w pracach nad sztuczną inteligencją. Pytanie o to, jak uniknąć oskarżenia o dyskryminację, jak zadbać o to, żeby ten model od samego początku był prawidłowy, właściwy, nie wymaga w tym momencie większego skupienia, a na pewno jest niezwykle istotne.</u>
<u xml:id="u-1.56" who="#MarlenaSakowskaBaryłaprofucz">I teraz rzecz, która myślę, że jest dla nas dużym wyzwaniem. To wyzwanie jest bardzo dobrze widoczne, jeśli popatrzymy na stosowanie rozporządzenia ogólnego o ochronie danych, na całą tę sferę dochodzenia do tego, kiedy z danych można korzystać, na oparcie systemu na ocenie ryzyka naruszeń. Ryzyko jest jednym z elementów, który w przypadku systemów sztucznej inteligencji musi być zdecydowanie brany pod uwagę. On podlega ocenie. Co więcej, tutaj ta ocena bardzo często jest oceną niedokonywaną z zewnątrz, tylko dokonywaną przez podmiot, który korzysta z tego rodzaju informacji, więc i z tego rodzaju systemów. To jest też bardzo istotny element edukacyjny, bo patrząc na to, jak wygląda ocena ryzyka w przypadku ochrony danych osobowych, myślę, że tutaj przed nami bardzo wiele i to zagadnienie edukacyjne rysujące się w pierwszym otwierającym wystąpieniu naszego dzisiejszego spotkania jest nie do przecenienia.</u>
<u xml:id="u-1.57" who="#MarlenaSakowskaBaryłaprofucz">I, proszę państwa, to było ostatnie pytanie, pewnie jedno z bardzo wielu, które można zadać. Bardzo dziękuję za możliwość zabrania głosu i cieszę się, że taki dyskurs się odbywa. Pięknie dziękuję.</u>
<u xml:id="u-1.58" who="#BartłomiejPejo">Teraz proszę o zabranie głosu panią profesor Jolantę Walusiak-Skorupę, dyrektora Instytutu Medycyny Pracy w Łodzi, która przedstawi państwu informacje na temat zagrożeń zdrowotnych związanych z nowoczesnymi technologiami w miejscu pracy. Bardzo proszę, pani profesor.</u>
<u xml:id="u-1.59" who="#JolantaWalusiakSkorupa">W momencie, kiedy sztuczna inteligencja, nowoczesne technologie wkraczają do środowiska pracy, to oczywiście stanowi to szereg ułatwień, udoskonaleń i czyni pracę łatwiejszą – chociaż nad tym się za chwilę zastanowimy – natomiast stanowi to zdecydowanie wyzwanie również dla systemu opieki profilaktycznej nad pracownikiem, przynajmniej w tym zakresie, w jakim tym pracownikiem, tą osobą świadczącą pracę się opiekujemy.</u>
<u xml:id="u-1.60" who="#JolantaWalusiakSkorupa">Państwo tutaj na pewno, wręcz lepiej niż ja, zdają sobie sprawę z tego, że system opieki profilaktycznej, te nasze zobowiązania kodeksowe, dotyczą tylko i wyłącznie osób, które świadczą pracę na umowę o pracę. Natomiast mamy cały szereg osób na rynku świadczących pracę w różnych elastycznych formach: na kontraktach, wszelkich umowach, kiedy to lekarz medycyny pracy i ta opieka profilaktyczna do tych nie dociera.</u>
<u xml:id="u-1.61" who="#JolantaWalusiakSkorupa">Z jednej strony niewątpliwie w środowisku pracy to dobrze, jeżeli są nowoczesne technologie. Można wykonać prace niebezpieczną za pracownika. Można go przede wszystkim uczyć, szkolić, bo tak jak w tej chwili i lekarzy, i studentów uczy się na fantomach, to tak samo można uczyć pracownika i będzie to dla niego dużo bezpieczniejsze. Można sprawdzać, co ten pracownik robi, chociaż tutaj już dochodzimy do sytuacji, kiedy pracownik może się czuć niekomfortowo, bo jest monitorowany i sprawdzany.</u>
<u xml:id="u-1.62" who="#JolantaWalusiakSkorupa">Dochodzimy do tej głębokiej współpracy pomiędzy człowiekiem a technologią. Ale co to wszystko znaczy? To oznacza również, że może się zdarzyć szereg nieprzewidzianych sytuacji, bo my w sumie jeszcze mało wiemy o tych nowoczesnych technologiach, o tym jak one działają. Oczywiście musimy mieć świadomość, że algorytmy umieją tyle, ile ich nauczymy, ale czasami nie nauczymy, bo nie przewidzimy wszystkich sytuacji. Coraz więcej się mówi – tutaj pani profesor przed chwilą wskazała nam szereg zagrożeń związanych z ochroną naszych danych osobowych – o cyberbezpieczeństwie, zagrożeniach z tym związanych</u>
<u xml:id="u-1.63" who="#JolantaWalusiakSkorupa">Wreszcie, proszę państwa, człowiek, który pracuje w otoczeniu nowoczesnych technologii, czuje się osamotniony w tym towarzystwie, bo jednak mniej osób, mniej pracowników do tej obsługi jest potrzebnych i przede wszystkim czuje się samotny, bo nie ma wsparcia socjalnego, musi pracować we współpracy z robotem. Także z jednej strony mamy do czynienia z ze zdecydowanym zmniejszeniem obciążenia pracą fizyczną, bo część możemy przerzucić na te nowoczesne technologie, aczkolwiek z drugiej strony, ponieważ algorytm się nie męczy i tam nie będzie zwolnienia tempa pracy, może się w związku z tym okazać, że zmęczy się człowiek, który w tym wszystkim uczestniczy.</u>
<u xml:id="u-1.64" who="#JolantaWalusiakSkorupa">Jednocześnie pewnych umiejętności się pozbawiamy. Pan profesor we wstępie dzisiaj mówił o tym, że przez sztuczną inteligencję mogą być wykonywane zarówno te najprostsze prace, jak i te najbardziej skomplikowane. Ja spotkałam się ostatnio z takim stwierdzeniem, że za chwilę nie będziemy mieli wysoko wykwalifikowanych chirurgów wykonujących te najtrudniejsze operacje, bo jeżeli wejdą na szerszą skalę roboty, to za chwilę, jak robot się zepsuje, prądu zabraknie, cokolwiek, to się okaże, że jest ogromny problem, bo ludzie się odzwyczaili od wykonywania pewnych rzeczy.</u>
<u xml:id="u-1.65" who="#JolantaWalusiakSkorupa">Zobaczcie państwo, jak my się odzwyczailiśmy od pisania ręcznego – my jednak częściej piszemy na komputerze czy na komórkach. W związku z tym ten tak zwany deskilling po angielsku też ma miejsce. I generalnie, proszę państwa, to na co chciałabym zwrócić uwagę, to jest zdrowie psychiczne. Mówimy bardzo dużo, w tej chwili mówi się, że o ile środowisko pracy bardzo się zmieniło i wymagania przed służbą medycyny pracy, przed opieką profilaktyczną, to są przede wszystkim wymagania związane z chorobami cywilizacyjnymi. Zwraca się uwagę na to, że to choroby, zaburzenia zdrowia psychicznego są naszym problemem. A spójrzcie państwo, bije się na alarm w kontekście młodzieży, zwłaszcza po Covidzie. Przecież oni za chwilę wejdą na rynek pracy. Ja jako lekarz medycyny pracy tak się zastanawiam – przecież ja ich będę musiała do pracy dopuszczać i już w tej chwili widzę mnóstwo problemów, które występują.</u>
<u xml:id="u-1.66" who="#JolantaWalusiakSkorupa">A powiem więcej, bo skoro mówimy, co się w prawie powinno zmienić, to mamy taki załącznik do rozporządzenia o badaniach kodeksowych, w którym jest zakres i częstotliwość badań wymaganych. Strasznie wolno się to zmienia. Pierwszy załącznik, ta ostatnia zmiana z 2020 roku, nastąpiła niemal po 20 latach naszych zabiegów celem unowocześnienia go, więc ja już się boję, kiedy zmienimy następny. Tam praktycznie nie ma zdrowia psychicznego i są takie pozycje typu gotowość do odpowiedzi, podejmowanie decyzji – na stanowiskach kierowniczych to się zaznacza. Natomiast prawda jest taka, że służba medycyny pracy, również pracodawcy, nie są przygotowani do tego, by zdrowiem psychicznym się zajmować. A sztuczna inteligencja, wszelkie nowoczesne technologie, to jest przede wszystkim obciążenie i zagrożenie dla zdrowia psychicznego pracownika, któremu trzeba pomóc i którego trzeba w tym wszystkim wspierać.</u>
<u xml:id="u-1.67" who="#JolantaWalusiakSkorupa">W związku z tym myślę, że to bardzo duże wyzwanie. Ja się cieszę, że tutaj, wśród prawników, znalazł się też lekarz, żeby zwrócić państwu uwagę na to, że nowoczesne rozwiązania są świetne, wszyscy z nich skorzystamy, chyba nawet czasem nie zdajemy sobie sprawy, że ten nasz telefon to też jest sztuczna inteligencja, natomiast wyzwanie dla środowiska, dla systemu opieki profilaktycznej jest, proszę państwa, ogromne. Z jednej strony właśnie z uwzględnieniem wszystkich potrzeb wszystkich interesariuszy, czyli i pracowników, i pracodawców; relacje z systemem ochrony zdrowia – wiem, że to nie ta Komisja, ale nie mogę nie powiedzieć, że medycyna pracy to jest tak zupełnie poza systemem i bardzo nad tym boleję, że wszelkie cyfryzacje do nas nie docierają i zupełnie nie znajdujemy się na tej platformie P1.</u>
<u xml:id="u-1.68" who="#JolantaWalusiakSkorupa">Dziękuję, panie pośle. W związku z tym, to jest konieczne, żebyśmy kompleksowo opiekowali się tym pracownikiem, a nie tylko raz w ramach medycyny pracy, a raz w ramach NFZ.I mam nadzieję, że zbiorowo coś z tym zrobimy. Dziękuję bardzo.</u>
<u xml:id="u-1.69" who="#BartłomiejPejo">Szanowni państwo, kolejna informacja dotyczy stanu prac nad polskim modelem językowym PLLuM. Przedstawi ją pan profesor Maciej Piasecki z Politechniki Wrocławskiej. Bardzo proszę, panie profesorze.</u>
<u xml:id="u-1.70" who="#MaciejPiasecki">Na koniec wszystkich wystąpień… a nie, jeszcze będzie jedno, przepraszam. W każdym razie padło tu wiele słów o sztucznej inteligencji i ja chciałem właśnie od strony budowy, chciałbym zdać raport z tego, co robimy, w pewnym sensie wychodząc trochę naprzeciw różnych obaw, które w dużej mierze podzielam. Skoro była mowa o istniejących dużych modelach językowych, to może jeszcze najpierw krótko o tym, czym one są. Są to tak naprawdę sieci neuronowe: bardzo skomplikowane, bardzo duże, czasami mają setki miliardów parametrów. One są pierwotnie wytrenowane do jednego, prostego zadania – generowania tekstu. Mając początek tekstu, generują kolejne słowa według setek miliardów słów, które widziały podczas trenowania.</u>
<u xml:id="u-1.71" who="#MaciejPiasecki">Ale w tym momencie to jeszcze nie sprawia, że one są tak inteligentne. Dopiero kiedy dotrenujemy na instrukcjach, czyli przykładach od ludzi, w jaki sposób interpretować tekst, to dopiero w tym momencie one zaczynają generować tekst w sposób, który odpowiada temu, co napisaliśmy. Podajemy jakieś polecenie i wtedy sieć potrafi zareagować, bo widziała przykłady, a bardzo ważne jest jeszcze później tak zwane wychowanie różnymi technikami, na przykład uczenie ze wzmocnieniem. I tutaj właśnie pojawia się ChatGPT, kiedy sieć nie tylko potrafi generować pewną interpretację, ale jeszcze wcześniej wychowaliśmy ją tak, żeby widziała, które interpretacje są bardziej pożądane przez człowieka, czyli z naszego punktu widzenia wykazują bardziej inteligentne zachowania, reakcje. I tutaj je wychowujemy na podstawie akcji preferencji człowieka i reakcji w dialogu z człowiekiem.</u>
<u xml:id="u-1.72" who="#MaciejPiasecki">W ramach naszego projektu PLLuM, od angielskiego Polish Large Language Universal Model, chcemy zrealizować trzy cele: po pierwsze – fundamentalny, duży, generatywny model dla języka polskiego, czyli podstawowy silnik wytrenowany na tekstach w języku polskim, zapewniający uniwersalną reprezentację języka polskiego, dotrenowany na bardzo wielu instrukcjach, ponad 100 tys. zebranych przykładów, jak interpretować tekst; po drugie – chcemy zbudować bazowy model dialogowy do języka polskiego, wychowany na różnego rodzaju przykładowych interakcjach, które gromadzimy, wychowany z tego pierwszego fundamentalnego podstawowego modelu, czyli chcemy zbudować silnik ogólny i silnik dialogowy; po trzecie, trochę zgodnie z życzeniem zleceniodawcy inwestora, chcemy pokazać też przykładowe zastosowanie w postaci wirtualnego asystenta użytkownika instytucji publicznych, czyli system wspomagający osoby korzystające z różnych instytucji publicznych w dostępie do wiedzy: odpowiedzi na pytania, załatwianie spraw, właściwe podejście do czegoś.</u>
<u xml:id="u-1.73" who="#MaciejPiasecki">Co wyróżnia to, co robimy, na tle wielu wspomnianych i dziesiątek setek już w tej chwili istniejących modeli? Po pierwsze, nasz model będzie całkowicie otwarty, otwarty od podstaw, to znaczy przejrzysty, jeśli chodzi o używane dane, bo to nie wszystkie mogą być otwarte, ale otwarty potem do wszystkich możliwych zastosowań, łącznie z dokumentacją z całym…Czyli realizowany jest przez instytucje publiczne z pieniędzy publicznych i ma służyć potem każdemu: i nauce, i biznesowi, i instytucjom publicznym. Ma być zgodny z aktualnymi regulacjami prawnymi – śledzimy już AI Act do przodu, bierzemy pod uwagę wszystkie inne regulacje unijne i polskie. Użyjemy zarówno danych otwartych, jak też danych dostępnych, w sposób przejrzysty, zgodnie z AI Act.</u>
<u xml:id="u-1.74" who="#MaciejPiasecki">Dalej ma być przede wszystkim dobrem w reprezentacji języka polskiego. Wśród wielu modeli otwartych – komercyjne bym odłożył, bo one są potem niedostępne do dalszej modyfikacji, wykorzystania – nie ma jeszcze modelu, który by reprezentował dobrą – w cudzysłowie – znajomość języka polskiego. Gromadzimy tu mnóstwo danych, mamy je, robimy ich selekcję. Chcemy, żeby ten model był wytrenowany na bardzo reprezentacyjnych, dobrze dobranych, zbalansowanych danych dla języka polskiego.</u>
<u xml:id="u-1.75" who="#MaciejPiasecki">Dalej – bardzo istotne są instrukcje, przykłady użycia, interakcje tak, żeby model dostroić i wychować. I tutaj startujemy, wystartowaliśmy już z bardzo dobrym kapitałem, ponieważ w zeszłym roku kończyliśmy bardzo duży projekt infrastrukturalny i już wtedy na starcie mieliśmy na koniec zeszłego roku około 100 tys. różnego rodzaju przykładów użycia instrukcji i interakcji człowieka z modelem. W tej chwili zbieramy tego znacznie więcej, mamy bardzo szeroko zakrojone prace, bo to jest klucz do jakości i jednocześnie też do bezpieczeństwa, bo oczywiście bezpieczeństwo, jak tu usłyszeliśmy, jest bardzo ważnym aspektem, to jest prawda, której nawet nie trzeba dyskutować. I chcemy zarówno bezpieczeństwa na etapie trenowania modelu, kontroli, procesu trenowania i także budowy całego zespołu filtrów konfigurowalnych, też opartych na sztucznej inteligencji, do kontroli tego, co model produkuje.</u>
<u xml:id="u-1.76" who="#MaciejPiasecki">Wyjaśnialność. Niestety, tutaj mam złe wieści. Te modele są tak skomplikowane, że nie ma w tej chwili metod wyjaśnialności, ale możemy po pierwsze zrobić tutaj narzędzie badawcze do badań nad wyjaśnialnością, ponieważ ten model będzie znany od śrubki do ostatniego elementu i możemy ten proces kontrolować. Między innymi dlatego do tej pory nie ujawniliśmy światu tych zebranych w poprzednim projekcie danych do trenowania, bo chcemy zbadać, jak model reguluje, w jaki sposób, na ile jego własności wynikają z tego, co on widział, a na ile rzeczywiście potrafi generować i mogę obiecać, że zbliżymy się do aspektów wyjaśnialnością.</u>
<u xml:id="u-1.77" who="#MaciejPiasecki">Zastosowania. Są setki, tysiące możliwych. Przede wszystkim, jeżeli to będzie technologia dostępna, to każdy będzie mógł to dalej wytrenować, dostroić na różne potrzeby, w tym również i małych firm, firm, które nie mają kapitału, żeby na przykład samodzielnie tworzyć takie wielkie modele. PLLuM będzie narzędziem badawczym sam w sobie, na przykład do badań nad wyjaśnialnością. Są także infrastruktury badawcze, takie jak na przykład istniejący od 10 lat CLARIN. Wraz z tą zmianą technologiczną, która zaszła w ciągu ostatniego roku, dwóch, bardzo potrzebujemy takiego narzędzia naukowców, żeby dalej obsługiwać setki narzędzi pracujących na mowie, tekście w badaniach naukowych.</u>
<u xml:id="u-1.78" who="#MaciejPiasecki">Osobną kwestią jest te przykładowe wdrożenie systemu wspierającego użytkowników cyfrowych usług urzędowych. I tutaj może kilka słów więcej. Inteligentny system, który chcemy budować, z założenia musi po prostu bardzo precyzyjnie odpowiadać na pytania użytkowników, musi dostarczać wiedzy sprawdzonej, z dokumentów, z aktów, z instrukcji. Natomiast z modelami językowymi jest ten problem, że one po pierwsze mają długi czas, dostrajania. Nie opłaca się na przykład co dwa tygodnie modelu dostrajać, więc nie będzie podążał za nowymi informacjami. Modele zawsze będą trochę halucynować, bo to jest w ich naturze. One działają w sumie w oparciu na teorii prawdopodobieństwa, więc zawsze będą usiłowały wsadzić trochę od siebie.</u>
<u xml:id="u-1.79" who="#MaciejPiasecki">Rozwiązanie, które tutaj proponujemy, nie jest nowe, ale chcemy je wdrożyć, przećwiczyć od podstaw. To jest model językowy PLLuM jako narzędzie do analizy tekstu plus zbiory dokumentów danej instytucji i nasza własna technologia wyszukiwania już całkiem zaawansowana, włącznie z kontrolą tego, co model potem opowiada użytkownikowi, z cytowaniem odpowiednich fragmentów dokumentów – mamy do tego algorytmy. I model, takie rozwiązanie kompleksowe, będzie mogło być wdrożone nie tylko w chmurze, ale także na przykład w miejscu, w jakiejś instytucji, na ich serwerach, ponieważ jest rozwiązaniem otwartym – na przykład ochrona danych jest tutaj jak najbardziej możliwa.</u>
<u xml:id="u-1.80" who="#MaciejPiasecki">Realizujemy to jako dotację z Ministerstwa Cyfryzacji. Dostaliśmy w sumie, patrząc na datę wydania decyzji, 11 miesięcy. Działamy w ekstremalnie szybkim tempie. Stosujemy techniki znane z przemysłu, metody zarządzania tego typu innowacyjnym projektem z tygodnia na tydzień, stosujemy odpowiednie profesjonalne oprogramowanie do zarządzania. Jest to możliwe dlatego, że pięć instytucji, z sześciu które tworzą konsorcjum, już miało dość duże doświadczenie. Są to instytucje badawcze, publiczne. Już od kilku lat pracowaliśmy z budowaniem danych, trenowaniem modeli, testowaniem. I Instytutem Slawistyki PAN, ponieważ chcemy w tym modelu eksperymentalnie włączyć dane z języków słowiańskich, ale też litewskiego, tych języków mniejszych. Tłumaczenie z polskiego na litewski działa słabo, nawet w tych profesjonalnych, komercyjnych systemach.</u>
<u xml:id="u-1.81" who="#MaciejPiasecki">Jak się plasuje nasze przedsięwzięcie na tle badań technologii? Celujemy tu w model średniej wielkości, bo może 50 miliardów parametrów, może większy. To, co nas ogranicza, to dane, bo nie ma sensu budować wielkiego modelu, jeżeli nie ma do tego odpowiednio dużych danych. On po prostu je kuje na pamięć, więc będziemy tutaj szukać dobrego balansu, dobrej generalizacji. No i naszą dużą przewagą są unikatowe nawet w skali światowej dane do dostrajania uczenia, wychowywania. Osiągniemy model dialogowy wychowany na dużym, oryginalnym zbiorze interakcji ludzi. I jesteśmy w tej dobrej pozycji, że obserwujemy, co zrobi konkurencja, dobieramy najlepsze metody i twórczo je łączymy, adaptujemy, jesteśmy na aktualnym poziomie światowym, jeśli chodzi o metodę. Mamy bardzo wysokiej jakości, oryginalne rozwiązania w dziedzinie wyszukiwania semantycznego, połączymy to z tym modelem przykładowej implementacji.</u>
<u xml:id="u-1.82" who="#MaciejPiasecki">Dużą wartością jest to, że to jest w Polsce. Będziemy mieć w instytucjach publicznych, w konsorcjum publicznym kompletny stos technologiczny: od zbierania danych, po prawne aspekty zarządzania i tak dalej. Będzie to wiedza dostępna. Jesteśmy też w dwóch największych infrastrukturach: badawczej CLARIN z już ponad 10 latami tradycji, gdzie jest w tej chwili kilkanaście modeli budowanych w różnych państwach członkowskich, a Polska jest członkiem założycielem i od kilku miesięcy nowej, bardziej nastawionej na przemysł ALT-EDIC, gdzie też jesteśmy członkiem założycielem i gdzie również aspekt modeli jest najważniejszy. Jesteśmy w tych dwóch przedsięwzięciach. Dziękuję bardzo. Zapraszam na naszą stronę, gdzie staram się regularnie pokazywać postępy projektu.</u>
<u xml:id="u-1.83" who="#BartłomiejPejo">Dotarła do nas pani dr Dominika Kaczorowska-Spychalska z Wydziału Zarządzania Uniwersytetu Łódzkiego. Tematem referatu pani doktor będzie collaborative education, synergia ludzi i technologii. Myślę, że za chwilę będziemy już gotowi do prezentacji, więc oddaję głos, pani doktor, bardzo proszę.</u>
<u xml:id="u-1.84" who="#BartłomiejPejo">[Po przerwie]</u>
<u xml:id="u-1.85" who="#DominikaKaczorowskaSpychalska">Proszę państwa, ja nazywam się Dominika Kaczorowska-Spychalska i jestem z jednej strony dyrektorem Centrum Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego, ale jestem też ekspertem Grupy Roboczej ds. Sztucznej Inteligencji, tak zwanego GRAI, przy Ministerstwie Cyfryzacji.</u>
<u xml:id="u-1.86" who="#DominikaKaczorowskaSpychalska">Szanowni państwo, chciałam przez chwilę podyskutować z państwem na temat collaborative education, dlatego że my o collaborative education mówimy bardzo wiele, bardzo dużo i w bardzo różnych odsłonach. Biorąc pod uwagę… no właśnie, te możliwości współpracy człowieka z człowiekiem, coraz częściej oczywiście bierzemy pod uwagę możliwość współpracy z technologią, tylko często robimy to… no właśnie, nie do końca uświadamiając sobie zakres możliwości czy stopień tej współpracy. Kiedy spojrzymy na samą definicję collaborative education, widać tam bardzo wyraźnie kwestie dotyczące zaangażowania, kwestie dotyczące wysiłku, różnorodności członków grupy, czy… no właśnie tych kontekstów, w których jesteśmy tutaj na bieżąco osadzeni.</u>
<u xml:id="u-1.87" who="#DominikaKaczorowskaSpychalska">Natomiast. proszę państwa, to oznacza z punktu widzenia technologii, że tak naprawdę kluczem nie jest kwestia tego, czy my będziemy sobie tutaj dychotomicznie zastanawiać się i rozważać: wdrażać, nie wdrażać, implementować, nie implementować. Właśnie z punktu widzenia edukacji czy szeroko rozumianego kształcenia, zwracam uwagę na uczelnie wyższe, ale tak naprawdę powinniśmy się zastanowić nad tym, jak zapewnić ten optymalny przepływ wiedzy między człowiekiem a…ja mówię najczęściej o sztucznej inteligencji; a właśnie, sztuczna inteligencja albo z drugiej strony sztuczną inteligencją a człowiekiem tak, aby ten proces miał charakter naturalny, miał charakter synergiczny i tak naprawdę zapewniał nam możliwość optymalizacji tych celów, które sobie zakładamy.</u>
<u xml:id="u-1.88" who="#DominikaKaczorowskaSpychalska">Dlatego o tym mówię i dlaczego zwracam tak szczególną uwagę na kwestię właśnie wprowadzenia sztucznej inteligencji do szeroko rozumianego poziomu studiów? To dwa kluczowe dla mnie wątki. Pierwsza rzecz to wyniki ostatniego raportu The Future of Jobs, wydanego przez World Economic Forum w zeszłym roku, który zwraca szczególną uwagę na kwestię właśnie rosnącej atomizacji kwestii dotyczących przetwarzania informacji i tego, jak bardzo będzie miało to wpływ na nas.</u>
<u xml:id="u-1.89" who="#DominikaKaczorowskaSpychalska">Druga kluczowa kwestia to raport z badań Harvard Business School, który mówi o dwóch kategoriach, mówi o kwestiach związanych z…no właśnie, Cyborgami i Centaurami, państwa skojarzenia są doskonałe. Ten centaur, pół bóg, pół człowiek, no właśnie…A czy my już dzisiaj nie jesteśmy takimi centaurami? No, wydaje się, że z punktu widzenia tego, co robimy na uczelniach, zwłaszcza tutaj, na Uniwersytecie Łódzkim, to rzeczywiście tak już jest, bo przecież korzystamy z tej technologii sztucznej inteligencji, choćby po to, by dokonać przeglądu różnych materiałów, przeglądu literatury, po to, by… no właśnie, szukać jakiejś inspiracji i eksplorować.</u>
<u xml:id="u-1.90" who="#DominikaKaczorowskaSpychalska">Druga ważna rzecz to to te cyborgi, zatem ta kwestia tego, jak na tych stanowiskach pracy dojdzie do takiego właśnie połączenia tego, jak będziemy z tych technologii korzystać po to, by właśnie zacierać granicę między nami a technologią. A może zacząć się zastanawiać, jak tę granicę między tymi dwoma członami powinniśmy ustawić po to, by nadal ta idea human centric nadal była tutaj na pierwszym miejscu.</u>
<u xml:id="u-1.91" who="#DominikaKaczorowskaSpychalska">Pożądane umiejętności, które z tego wynikają, są chyba dosyć dla nas oczywiste. Nie będę się nad nimi zbyt mocno zastanawiała, bo to ten ogromny nacisk kładziony na kwestię umiejętności kognitywnych, to kwestia poczucia własnej skuteczności w interakcjach z technologią i to wydaje się dosyć kluczowe z punktu widzenia rozwoju umiejętności cyfrowych społeczeństwa. No ale także, zobaczcie państwo, ta kooperacja i komunikacja człowiek– maszyna.</u>
<u xml:id="u-1.92" who="#DominikaKaczorowskaSpychalska">Właśnie, i w efekcie może udałoby nam się stworzyć takie przepisy, które, z punktu widzenia funkcjonowania uczelni chociażby, pozwoliłyby nam połączyć ten human intelligence, artificial intelligence, znajdując taką przestrzeń do generowania tej inteligencji będącej pewną swoistą formą hybrydowości, w której … no właśnie, możemy zacząć się zastanawiać nad kwestiami dotyczącymi poszerzania naszej umiejętności ludzkiej, bo tak jak mówił Heidegger, technologia jest pewnym sposobem poznawania świata, eksplorowania tego świata, no i ujawniania tej rzeczywistości.</u>
<u xml:id="u-1.93" who="#DominikaKaczorowskaSpychalska">A to oznacza, że z punktu widzenia tych zapisów przyszłej polityki AI w Polsce, nad którą wczoraj zakończyły się społeczne konsultacje, mamy tak naprawdę dwa bardzo ważne zapisy. Pierwszy zapis to budowa kompetencji społecznych i higieny cyfrowej. Tam znalazł się podpunkt dotyczący właśnie uczelni wyższych, wprowadzenie do programów studiów elementów kształcenia związanych z AI.</u>
<u xml:id="u-1.94" who="#DominikaKaczorowskaSpychalska">I tu tak naprawdę warto byłoby się zastanawiać czy zastanowić nad tym, co dalej pojawi się w tych zapisach, dlatego że kluczowe z punktu widzenia właśnie tego, o czym mówiłam na samym początku, a więc collaborative education, jest po pierwsze uwzględnienie zapisów dotyczących tutaj pewnej interdyscyplinarności, po drugie kwestii związanych ze zwróceniem uwagi na to, że wszystkie dziedziny, dyscypliny naukowe powinny być w tym zapisie ujawnione. A więc tak naprawdę wprowadzamy do programu studiów, ale nie tylko z punktu widzenia tych dziedzin, dyscyplin związanych z naukami ścisłymi czy naukami inżynieryjnymi, ale także z punktu widzenia na przykład logistyki, z punktu widzenia marketingu, finansów i wielu, wielu innych kierunków studiów, w tym nauk, również społecznych, nauk humanistycznych czy sztuki.</u>
<u xml:id="u-1.95" who="#DominikaKaczorowskaSpychalska">Druga ważna rzecz – warto byłoby też zastanowić się nad tym, jak wykorzystać sztuczną inteligencję z punktu widzenia chociażby umiędzynarodowienia polskich wyników badań nad AI w różnych dziedzinach i dyscyplinach. Na ten moment przede wszystkim pojawiają się opracowania i badania odnoszące się do nauk ścisłych i nauk inżynieryjnych. Publikacji mamy niewątpliwie dużo, natomiast większym problemem wydaje się być w wielu przypadkach kwestia… no właśnie, tej cytowalności i wskaźników określających poziom cytowalności tych publikacji.</u>
<u xml:id="u-1.96" who="#DominikaKaczorowskaSpychalska">I dwa kolejne zapisy, nad którymi też warto się zastanowić z punktu widzenia przygotowywanej polityki AI w Polsce, to po pierwsze kwestia wsparcia pracowników dydaktycznych, badawczych czy dydaktyczno-badawczych z punktu widzenia tego, jak ich umiejętności, kompetencje w zakresie przyswajania tych technologii należałoby rozwijać i jak przygotować ich do tego procesu.</u>
<u xml:id="u-1.97" who="#DominikaKaczorowskaSpychalska">Ostatni element, na który też warto zwrócić uwagę z punktu widzenia właśnie tak przygotowywanych przepisów, to jest kwestia wypracowania być może takich jednoznacznych ram, które pozwoliłyby na określenie tego, co wolno, czego nie wolno, chociażby uczelniom, z punktu widzenia wykorzystywania AI w działaniach dydaktycznych, w działaniach badawczych, naukowych, ale także z punktu widzenia szeroko rozumianych działań administracyjnych.</u>
<u xml:id="u-1.98" who="#DominikaKaczorowskaSpychalska">Sięgając do polityki AI, tej poprzedniej, mamy tam dwa zapisy. To są cele średniookresowe do 2027 roku, którym też warto się może przyjrzeć z punktu widzenia innego z kolei podpunktu przygotowywanego nowego dokumentu, dotyczącego przyspieszenia rozwoju i współpracy nauki z biznesem. A to jest tworzenie dogodnych warunków pracy dla wykładowców, którzy mają rynkowe doświadczenie praktyczne w zakresie sztucznej inteligencji. I tu zwracam na to uwagę ze względu na kwestie dotyczące pojawiającej się coraz częściej luki pokoleniowej, luki kompetencyjnej z punktu widzenia informatyków i kształcenia na kierunkach informatycznych.</u>
<u xml:id="u-1.99" who="#DominikaKaczorowskaSpychalska">Druga rzecz to ułatwienie przedsiębiorcom finansowania działań uczelni, instytutów badawczych w zakresie sztucznej inteligencji i innych nowych technologii cyfrowych poprzez wsparcie zmian legislacyjnych i podatkowych w tym zakresie. Przytoczyłam cały zapis, a tak naprawdę to kwestia tego, jak zbudować ekosystem instytucji, które będą wspierały, w tym również biznesu; które będą wspierały uczelnie wyższe właśnie w badaniach w kształceniu i funkcjonowaniu przy wykorzystaniu sztucznej inteligencji.</u>
<u xml:id="u-1.100" who="#DominikaKaczorowskaSpychalska">Proszę państwa, tyle z mojej strony, cieszę się, że mogłam zwrócić uwagę na kwestie dotyczące uczelni wyższych i tego, jak tą sztuczną inteligencję w uczelniach wyższych powinniśmy… albo może powinniśmy się zastanowić nad tym, jak ją wdrażać, jak ją implementować, jak ją wykorzystywać. Bardzo dziękuję państwu za uwagę.</u>
<u xml:id="u-1.101" who="#BartłomiejPejo">Szanowni Państwo, zakończyliśmy wystąpienia naszych prelegentów. Bardzo serdecznie dziękuję za przedstawienie tych wszystkich informacji. Otwieram dyskusję. Czy ktoś z państwa posłów chciałby zabrać głos? Bardzo proszę, panie Pośle.</u>
<u xml:id="u-1.102" who="#PawełBliźniuk">Bardzo chciałem podziękować za to, że pierwsze wyjazdowe posiedzenie Komisji odbywa się w moim rodzinnym mieście. To wielki zaszczyt, ale też, jak widać po tych referatach, Łódź jest miastem szczególnym, gdzie mamy grono ekspertów, którzy na co dzień zajmują się tą tematyką. Dzisiaj każdy traktował kwestię nowych technologii, cyfryzacji, tej sztucznej inteligencji na rynku pracy, ale nie tylko, w sposób szczególny. Ja też chciałem kilka kwestii w tym zakresie poruszyć, poruszyć kilka zagadnień, które dzisiaj może nie padły, ale traktują kwestię rozwoju sztucznej inteligencji trochę inaczej.</u>
<u xml:id="u-1.103" who="#PawełBliźniuk">Po pierwsze – to takie refleksje na gorąco, jeżeli chodzi o tę naszą dyskusję – skupiamy się na tych ramach, które rzeczywiście tworzy Unia Europejska i które będziemy implementowali w najbliższym czasie. Ten proces trwa, bo, jak to pani profesor słusznie zauważyła, Unia Europejska w sposób niespieszny podchodzi do tego tematu. Przed nami implementacja regulacji na poziomie krajów członkowskich.</u>
<u xml:id="u-1.104" who="#PawełBliźniuk">Natomiast chciałbym się jednak trochę wznieść i popatrzyć na rozwój sztucznej inteligencji, która de facto nie wie, co to są granice państw, i ten przepływ technologii i ich rozwój odbywa się w różnych miejscach na świecie w różny sposób. Słuchając dzisiejszej dyskusji, debaty czy wystąpień, przypomniała mi się książka tajwańskiego biznesmena, który studiował w Ameryce, był też wiceprezesem Google na Chiny, a teraz jest aniołem biznesu w Chinach. Ta książka – „Inteligencja sztuczna, rewolucja prawdziwa” Kai-Fu Lee z 2018 roku – wskazywała na aspekt geopolitycznej rywalizacji, jeżeli chodzi o świat sztucznej inteligencji i tego, jak Chiny i Stany Zjednoczone podchodzą do rozwoju tych nowych technologii.</u>
<u xml:id="u-1.105" who="#PawełBliźniuk">I w tej dzisiejszej dyskusji, bo mówiliśmy o rynku pracy, trochę mi brakuje i zabrakło – mam nadzieję, że to jest kwestia dość ograniczonego czasu, jaki mieliśmy dzisiaj na przedstawienie różnych punktów widzenia – aspektu rozwojowego, jeżeli chodzi o rozwój nowych inicjatyw gospodarczych, startupów, wykorzystania tych technologii, tego narzędziowania prawnego, które mogłoby wspierać rozwój nowych technologii, przedsięwzięć, które bazują na ich wykorzystaniu w Polsce.</u>
<u xml:id="u-1.106" who="#PawełBliźniuk">Tu skupiamy się na bezpieczeństwie, ochronie danych osobowych; skupiamy się na tym, że rzeczywiście sztuczna inteligencja to przestrzeń, która niesie ze sobą ogromne szanse, ale też ogromne, nazwijmy to, wyzwania czy, powiedzmy sobie też wprost, ryzyka, które trzeba w jakiś sposób okiełznać poprzez narzucenie ram prawnych. Ale drugiej strony, ten wymiar międzynarodowy i spojrzenie globalne na rozwój nowych technologii wskazuje, że różne podejście na świecie determinuje później możliwości wykorzystania biznesowego sztucznej inteligencji. I to jest taki, chyba nierozwiązywalny, spór w innych państwach, pewna, zdecydowanie niższa wrażliwość na ochronę danych osobowych. Z drugiej strony te państwa też na tym korzystają, a przede wszystkim korzystają przedsiębiorcy, którzy monetyzują później poprzez różne startupy rozwiązania biznesowe implementowane do gospodarki nie tylko lokalnej, ale globalnej, uzyskując pewną przewagę konkurencyjną.</u>
<u xml:id="u-1.107" who="#PawełBliźniuk">I tutaj ta debata pewnie przed nami. Musimy uregulować te kwestie na poziomie Unii Europejskiej i wdrożyć te rozwiązania, które już są w trakcie procesu, natomiast myślę, że taka debata również jeszcze przed nami jest ze względu na to, że nie jesteśmy mikroświatem zamkniętym na otoczenie. W innych państwach ta sztuczna inteligencja rozwija się zdecydowanie bardziej dynamicznie i regulacje prawne, czy też rozwiązania umożliwiające implementacje tych osiągnięć technologicznych, są bardziej elastyczne. Czy to dobrze, czy źle – mówię, to jest przedmiot do dyskusji.</u>
<u xml:id="u-1.108" who="#PawełBliźniuk">Jeżeli chodzi o zakres prawny, to mówimy o zagadnieniach ze sfery prawa, nazwijmy to, cywilnego, ale dzisiaj czasy są niespokojne i ta sztuczna inteligencja jest też wdrażana w różnych państwach na polu walki. Prawo międzynarodowe dotyczące prawa wojennego, ale też rozwiązania prawne, które powinny przewidywać pewne sytuacje, powinny być przedmiotem naszego zainteresowania. Tu wskażę tylko Izrael, który w pętli decyzyjnej wykorzystuje sztuczną inteligencję do chociażby prowadzenia ognia kontrbateryjnego czy to artylerią klasyczną, czy rakietami. I to jest chyba pierwsze państwo, które w praktyce stosuje sztuczną inteligencję. Dzisiaj mamy pole walki mocno nasycone sensorami. Przetwarzanie tej wiedzy i danych w trybie rzeczywistym umożliwia bardzo szybką reakcję. No to też pewnie jest wyzwanie, w najbliższym czasie również dla nas, jeżeli chodzi o regulacje dotyczące sztucznej inteligencji.</u>
<u xml:id="u-1.109" who="#PawełBliźniuk">Na końcu taka refleksja, przywołam tu książkę pt. „Antykruchość. Jak żyć w świecie, którego nie rozumiemy” Nassima Taleba. Porusza kwestię związaną z tym, że tworzymy system, który eksponuje nas na ryzyko nie tylko czarnego łabędzia, ale też zdarzeń, które mogą mieć krytyczny charakter ze względu na to, że użytkując tę sztuczną inteligencję czy nowe technologie, tworzymy tak naprawdę jeden holistyczny system, gdzie pewne błędy mogą po prostu powodować drastyczne w skutkach efekty. Te ryzyko jest mocno niewidoczne, ale z punktu widzenia osób, które zajmują się regulacją, czy to ekspertów, czy też nas parlamentarzystów, chciałem tylko przypomnieć właśnie o tej koncepcji, która zresztą, jak myślę, powinna być naszej pamięci, kiedy zajmujemy się tymi regulacjami; że te ryzyka, nawet te, których nie jesteśmy w stanie sobie zdefiniować, są ukryte przy tego typu systemach, które tworzymy, które są globalne i obejmują szereg funkcjonalności. I tutaj drobne błędy, chociażby na przykład w medycynie, gdzie mamy asystenta, bo te nowe technologie, sztuczna inteligencja, algorytmy i robotyzacja mają zastąpić pracę chirurgów albo wspierać ich…</u>
<u xml:id="u-1.110" who="#PawełBliźniuk">No rzeczywiście, w momencie kiedy tam nastąpi jakiś błąd i problem, to pytanie jest o skalę skutków i również odpowiedzialności, bo jesteśmy na Wydziale Prawa; to później, z czasem, jest kwestia regulacji nie tylko prawa pracy, ale na przykład prawa karnego, gdzie będziemy używać coraz bardziej zaawansowanych technologii. Kto w pewnym momencie będzie odpowiadał za błędy, jeżeli na przykład ktoś, ekspert, specjalista, będzie postępował zgodnie z wytycznymi ze strony wsparcia, jakim jest sztuczna inteligencja poprzez asystenta lekarza, czy w innych miejscach gospodarki. To też jest kwestia przed nami, ocean, na który wypływamy jest pewną niewiadomą. Zresztą ta analogia do oceanu jest absolutnie wskazana, dynamika zdarzeń tutaj też jest nieprzewidywalna. Rozwój technologii postępuje w sposób wykładniczy, więc myślę, że to określa wyzwania przed jakimi stoimy.</u>
<u xml:id="u-1.111" who="#PawełBliźniuk">Kończąc już i wieńcząc te kilka refleksji, które chciałem tutaj popełnić, jeszcze raz wielkie podziękowania dla państwa za te krótkie, ale bardzo treściwe, skondensowane referaty. To czysta przyjemność móc posłuchać ekspertów w swoich dziedzinach i to nam wskazuje wyzwania przed nami, jeżeli chodzi i o strony ekspertów, i stronę tych osób, które będą w parlamencie polskim się tym zajmowały, czyli członków Komisji, podkomisji. I, tak jak pan przewodniczący Napieralski mówił, bez państwa wsparcia, ciężko będzie w naszym kraju o dobre regulacje w tym zakresie. Po prostu wsparcie osób, które się tym zajmują na co dzień, jest nieodzowne, a mamy sytuację nadzwyczajną, bo regulujemy rzeczy dotychczas nieregulowane. Dziękuję.</u>
<u xml:id="u-1.112" who="#BartłomiejPejo">Bardzo proszę, czy ktoś z Państwa czy ktoś z Państwa chciałby jeszcze zabrać głos? Bardzo proszę i proszę osoby, które do tej pory nie zabierały głosu, o przedstawianie się na początku.</u>
<u xml:id="u-1.113" who="#DagmaraSkupieńprofucz">Jest mi bardzo, bardzo miło, że zostałam zaproszona na to dzisiejsze posiedzenie i odkrywam nowe obszary. Chciałabym odnieść się do kwestii dyskryminacji, która tu się na dwóch slajdach już pojawiła. Natomiast dzisiejsze spotkanie skłania do takiej refleksji dotyczącej konkretnego obszaru w sferze zatrudniania, to znaczy wykorzystania sztucznej inteligencji w procedurach rekrutacyjnych w sortowaniu życiorysów. I myślę sobie, że być może jest to szansa, aby skalę dyskryminacji ograniczyć poprzez zastosowanie właśnie automatyzacji, bo ta sztuczna inteligencja, zanim zostanie poddana temu urabianiu, wychowaniu, zdaje się być jednak neutralna światopoglądowo. I myślę, że za dyskryminacją stoi jednak człowiek ze swoimi uprzedzeniami, stereotypami, przesądami rasowymi. I zastanawiam się, na ile my prawnicy, czy to w toku procesy procesów legislacyjnych, prawda…Jak nauczyć te algorytmy tak, aby były niedyskryminacyjne w swoim funkcjonowaniu, aby nas wspomagały w zwalczaniu nierównego traktowania w zatrudnieniu? Może to jest naiwne, może idealistyczne, ale myślę, że ta sztuczna inteligencja może pomóc, jeżeli jest w rękach dobrych wychowawców. Dziękuję.</u>
<u xml:id="u-1.114" who="#PiotrUściński">Natomiast sztuczna inteligencja używana w procesie rekrutacji, to jest wielkie zagrożenie. Na przykład właśnie ze względu na to, że może dojść do dyskryminacji ze względu na takie cechy, które znamy, właśnie jak płeć. Ale może się zdarzyć taki przypadek, że my nawet nie będziemy wiedzieli, dlaczego, ale będzie jakaś grupa ludzi, jakieś pojedyncze przypadki, które będą niezatrudnialne i nie będzie wiadomo dlaczego; dlaczego ta sztuczna inteligencja akurat tych ludzi eliminuje? Trzeba będzie wręcz badać algorytmy, z jakiego powodu one eliminują daną osobę za każdym razem i jest osobą niezatrudnialną nie dlatego, że ma jakiś zawód, tylko z powodu jakiejś cechy, której nawet nie jesteśmy w stanie wprost zidentyfikować. To są bardzo duże zagrożenia.</u>
<u xml:id="u-1.115" who="#PiotrUściński">Po pierwsze, ta sztuczna inteligencja może zostać wytrenowana ze względu na jakiś niezamierzony błąd w ten sposób, że będzie kogoś eliminowała w procesie zatrudnienia. Ale proszę też zwrócić uwagę na to, że…Mi się bardzo podobała prezentacja tego polskiego modelu, który jest stworzony, z powodu założeń, które są przyjęte, że to jest otwarte i wszyscy mogą zweryfikować, co wy robicie. Jest to bardzo potrzebne do używania sztucznej inteligencji właśnie w takich społecznie wrażliwych tematach jak proces rekrutacji. Bo gdybyśmy założyli – a można takie założenie przyjąć – że ktoś, kto opracowuje, uczy modele sztucznej inteligencji w sposób ukryty, nieotwarty, może stosować pewne manipulacje, może segregować w jakiś sposób dane tak, żeby ta sztuczna inteligencja właśnie jakąś określoną grupę społeczną eliminowała z niejasnych powodów, nie dlatego, że to jest jakiś błąd, tylko dlatego, że dochodzi do manipulacji… Przy sztucznej inteligencji to jest bardzo, bardzo ważne, żebyśmy chronili przed manipulacją. I tutaj wielkie wyzwanie dla nas jako ustawodawcy, który musi tak skonstruować przepisy, żeby eliminować tego typu zagrożenia. Dziękuję bardzo.</u>
<u xml:id="u-1.116" who="#MarlenaSakowskaBaryłaprofucz">My mamy przeogromny zasób informacji sektora publicznego. Mamy implementowaną dyrektywę w sprawie otwartych danych i ponownego wykorzystywania informacji sektora publicznego, które pozwala, między innymi w celu trenowania modeli sztucznej inteligencji, wykorzystywać informacje sektora publicznego. Mniejsza o definicję tych informacji, tutaj też pewnie wokół tego sporo kontrowersji, natomiast popatrzmy na informacje zbierane właśnie w sektorze publicznym jako na swego rodzaju dobro wspólne – mam tutaj na myśli dobro wspólne bardziej w ujęciu ekonomicznym niż prawniczym – z tego względu, że to są pewne informacje, które są wypracowywane przez różnego rodzaju podmioty publiczne z publicznych pieniędzy, w ramach naszego wspólnego wysiłku intelektualnego, ale również w ramach naszych wspólnych podatków. I to jest naprawdę fantastyczny zasób informacji, które mogłyby stanowić podstawę do tego, żeby finalnie właśnie zastanowić się nad ich wykorzystaniem.</u>
<u xml:id="u-1.117" who="#MarlenaSakowskaBaryłaprofucz">Jeżeli popatrzymy na regulację, która dotyczy tego zagadnienia, to owszem, jest to regulacja, która w znacznej mierze odpowiada temu, co zostało zaprojektowane w dyrektywie w sprawie otwartych danych i ponownego wykorzystywania informacji sektora publicznego. No ale wiadomo, że dyrektywa wiąże nas co do rezultatu. Pytanie, czy my osiągnęliśmy ten rezultat, który został założony w dyrektywie? Mam wrażenie, że w sposób niezwykle umiarkowany, dlatego że jeżeli popatrzymy nawet na samo zainteresowanie korzystaniem z zasobów publicznych do trenowania sztucznej inteligencji, to chociażby z uwagi na rozwiązania proceduralne, a te rozwiązania są opisane w ustawie. One nie zachęcają do tego, żeby korzystać z takich naprawdę dobrych, sprawdzonych rozwiązań.</u>
<u xml:id="u-1.118" who="#MarlenaSakowskaBaryłaprofucz">I tutaj patrzę w kierunku pana profesora, który pokazywał nasz polski model. Myślę, że ten polski model mógłby być właśnie wzbogacony o ten element trenowania na polskich danych, tych pochodzących z sektora publicznego. Tylko pytanie, na ile efektywnie jesteśmy w stanie skorzystać z tych danych właśnie w ramach tej regulacji, która obecnie obowiązuje?</u>
<u xml:id="u-1.119" who="#MarlenaSakowskaBaryłaprofucz">Myślę, że to jest dobre, dobre miejsce, żeby poruszyć te kwestie. Komisja sejmowa to jak najbardziej właściwe miejsce, żeby mówić o tym, że niekiedy przepisy – nie chcę powiedzieć, że nie są kompatybilne – w pewnej mierze chyba wymagałyby uspójnienia. Pięknie dziękuję.</u>
<u xml:id="u-1.120" who="#MaciejPiasecki">Najnowszy przykład, nie powiem z jakiej instytucji, żeby tutaj się nie skarżyć, ale wydawało się, że prosta sprawa, wszystko jest dostępne na stronach, możemy łatwo dostać paczkę danych. Nie, procedura to jest kilka miesięcy, a mamy ich jedenaście, nie możemy czekać. Musimy po prostu scrapować te dane, te same dane, tylko ze stron.</u>
<u xml:id="u-1.121" who="#MaciejPiasecki">Wychodząc też trochę poza instytucje publiczne, z zazdrością patrzę na Norwegię, gdzie norweska biblioteka narodowa na podstawie obowiązującego prawa buduje modele językowe ze wszystkich dostępnych obowiązkowych egzemplarzy. Mogą to robić w tej chwili do roku 2008, te modele są potem dostępne, między innymi dla biznesu w ramach Norwegii. Takiego urodzaju możemy tylko pozazdrościć, bo u nas z dostępem do danych…Już nie mówię o danych medycznych, bo to jest problem całej Europy i nawet komercyjny dostęp do danych medycznych jest prawie, że niemożliwy.</u>
<u xml:id="u-1.122" who="#MaciejPiasecki">Kontaktowałem się z jedną blogerką cyfrową, która ma otwarte dane. Okazało się, że nie mogła nam tych danych dostarczyć, bo musiała się jeszcze spytać się tych, którzy te dane otwarte tam załadowali, czy nie mają nic przeciwko temu, że my z tych danych skorzystamy? To jest właśnie proza życia.</u>
<u xml:id="u-1.123" who="#MarcinGrzelak">Szanowni Państwo, bardzo dziękuję za przyjemność udziału w dzisiejszym wydarzeniu. Chciałem tylko zasygnalizować, że wiele tez, które zostały zaprezentowane podczas dzisiejszych wystąpień, zostało przedstawionych jako przyszłość, a ja odnoszę wrażenie, że to już jest teraźniejszość. Pozwólcie państwo, takie trzy spostrzeżenia związane z tym miejscem, w którym jesteśmy. Jestem, proszę państwa, mocno osadzony w Łodzi i okolicach.</u>
<u xml:id="u-1.124" who="#MarcinGrzelak">Pan profesor Stefański wspomniał o Volvo Vera, bodajże tak się nazywał ten projekt. I gdzieś tam w tle pojawiły się wózki autonomiczne. Pierwszy raz wózki autonomiczne w centrach logistycznych w okolicach Łodzi zobaczyłem jesienią 2021 roku. Dzisiaj, w trakcie tego posiedzenia, wyobrażałem sobie, w których centrach logistycznych będą wózki autonomiczne. Naliczyłem kilkanaście.</u>
<u xml:id="u-1.125" who="#MarcinGrzelak">Drugie spostrzeżenie, w nawiązaniu do słów pana posła Bliźniuka, który akcentował potrzebę rozwijania polskich startupów i wykorzystania tej szansy, którą mamy. Te technologie związane z wykorzystaniem wózków autonomicznych to są Stany Zjednoczone. Inny przykład, również z naszego rodzimego podwórka, To jest podmiot, który poznałem kilkanaście lat temu. Bardzo specyficzna usługa, monitoring wizyjny odnoszący się do branży gastronomicznej. Gdy ten podmiot poznałem kilkanaście lat temu, to była grupa 30–40 osób, które wówczas obsługiwały telewizję przemysłową. Później pojawiły się ekrany, na których jest kilkanaście kamer patrzących na ręce komuś, kto zajmuje się kasą w jakiejś tam restauracji x, gdzieś we wszechświecie. Dzisiaj to jest chińska technologia oparta na rozpoznawaniu obrazu i w miejsce 30–40 osób, dwie osoby są zaangażowane w to przedsięwzięcie.</u>
<u xml:id="u-1.126" who="#MarcinGrzelak">I trzecie spostrzeżenie, z którym chciałem się z państwem podzielić, odnosi się już do mojego inspekcyjnego podwórka. Jesienią ubiegłego roku ogłaszaliśmy nabór na stanowisko referent księgowy. Nic ciekawego. W tym naborze zgłosiły się dwie osoby. Ponowiliśmy nabór w lutym roku bieżącego i w tym naborze zgłosiło się 20 osób. Wiele z nich… Proces związany z rachunkowością, z księgowaniem, to jest proces, który z wyjątkiem sfery budżetowej, która jest bardzo analogowa, jest w tym momencie bardzo, bardzo cyfrowy.</u>
<u xml:id="u-1.127" who="#MarcinGrzelak">Zmierzam do tego, że kiedy zacząłem się zastanawiać w jakiejś mierze nad sukcesem tego naboru – bo to są osoby o bardzo wysokich umiejętnościach, bardzo wysokich kwalifikacjach – to dotarłem również do łódzkiej firmy, która buduje naszą rodzimą technologię i uważam, że jej roboty księgujące odniosą duży sukces. To tak w wymiarze budującego wniosku, panie pośle.</u>
<u xml:id="u-1.128" who="#KrzysztofStefańskiprofucz">Padła chociażby taka kwestia dotycząca odpowiedzialności lekarzy. Powiem tylko tyle, że ta odpowiedzialność, regulacje związane z odpowiedzialnością… Musimy troszeczkę zmienić sposób myślenia. Otóż Parlament Europejski wskazał, że lekarze nie powinni odpowiadać za to, że nie zastosują podpowiedzi sztucznej inteligencji w swojej diagnozie, a nie za to, że zastosują. Parlament Europejski wychodzi z założenia, że zastosowanie podpowiedzi asystenta lekarza, zastosowanie podpowiedzi sztucznej inteligencji, jest normą, a ewentualnym, dosyć ryzykownym działaniem lekarza, jest odejście od tego. Zobaczcie państwo, jak inaczej musimy podchodzić do tych kwestii odpowiedzialności.</u>
<u xml:id="u-1.129" who="#KrzysztofStefańskiprofucz">Jeśli chodzi o rekrutację, to powiem tak – dosyć mocno to badałem w tej chwili w Polsce. Niemal sto procent dużych firm stosuje systemy ATS, czyli Applicant Tracking Systems. Jeśli chodzi o średnie firmy, też jest ich całkiem dużo i coraz mniejsze firmy z tych systemów korzystają, bo po prostu ta technologia bardzo tanieje i mogą sobie na to pozwolić.</u>
<u xml:id="u-1.130" who="#KrzysztofStefańskiprofucz">Natomiast oczywiście pojawia się kwestia ewentualnej dyskryminacji i to na dwóch etapach czy też z dwóch powodów. Po pierwsze – tego, co powiedzieliśmy, czyli tworzenia algorytmów. Trzeba pamiętać, że algorytmy są tworzone również przez człowieka, bo zdarza się, że algorytm tworzy algorytm, ale algorytmy są tworzone przez ludzi i ci ludzie bardzo często implementują swoje stereotypy do działania algorytmów. Stąd orzeczenia sądów amerykańskich dotyczące na przykład dyskryminacji kobiet albo dyskryminacji ze względu na rasę, bo na przykład ktoś, kto tworzył algorytm, zaimplementował instrukcję, że kobiety gorzej radzą sobie z matematyczną analizą danych, a z kolei lepiej z tym radzą sobie osoby, które są rasy żółtej. I tutaj sporo do powiedzenia miały sądy.</u>
<u xml:id="u-1.131" who="#KrzysztofStefańskiprofucz">Trzeba również pamiętać, że algorytm da nam taką odpowiedź, jakie my instrukcje i dane do niego włożymy. Ta zasada „to, co włożysz, to wyjmiesz” jest jak najbardziej funkcjonalna. W związku z tym, jeżeli włożymy do algorytmu, który chociażby zajmuje się rekrutacją czy też przyznawaniem kredytów, dane niepełne, a przecież nie wszystkich nas dotyczy ten sam standard danych, wtedy otrzymamy różne odpowiedzi i osoba, która na przykład bardzo chroni swoje dane osobowe, bardzo chroni informacje o sobie i na przykład nie ma jej na różnych portalach czy w różnych mediach społecznościowych, może mieć gorsze notowania, dlatego że właśnie nie ma odpowiednich danych i sztuczna inteligencja ją negatywnie zweryfikuje.</u>
<u xml:id="u-1.132" who="#KrzysztofStefańskiprofucz">Co więcej, trzeba pamiętać, że osoby, które są poddane takim procesom, o tym najczęściej nie wiedzą, nie wiedzą o instrukcjach, o budowie algorytmów i nie wiedzą, dlaczego podjęto taką, a nie inną decyzję. Stąd ten problem black boxów, który zresztą w jakimś stopniu może będzie uregulowany w tej ustawie o związkach zawodowych, przynajmniej informowaniu o tej kwestii działania algorytmów. Bo przecież taka osoba, która nie wie, dlaczego taka, a nie inna decyzja została podjęta, nie może się od niej skutecznie odwołać. Jeżeli algorytm orzeknie, że należy Krzysztofa Stefańskiego zwolnić z uczelni, to ja nie będę wiedział, dlaczego i nawet jeżeli będę chciał napisać pozew i pozywać uniwersytet, to tak naprawdę nie będę miał możliwości zakwestionowania tej decyzji. W związku z tym tu jest gigantyczny problem.</u>
<u xml:id="u-1.133" who="#KrzysztofStefańskiprofucz">I dosłownie ostatnia kwestia, w odpowiedzi na słowa pana posła Bliźniuka dotyczące wojny i sztucznej inteligencji. Tutaj też mamy eksperta na uczelni. Pan doktor Piątkowski zajmuje się prawem humanitarnym, prawem obrony cywili, jeśli chodzi o działania wojenne a sztuczna inteligencja i te kwestie związane z implementacją tych narzędzi też nie są mu obce. Także tutaj też służymy pomocą.</u>
<u xml:id="u-1.134" who="#DominikLubasz">Przede wszystkim warto pamiętać, że ta europejska regulacja jest regulacją horyzontalną, która została przyjęta przez parlament dosłownie kilka dni temu. Ona dotyczy pewnego zakresu systemu, w związku z tym swoboda, jaką mają państwa członkowskie w regulacji obszaru ochrony obszaru systemów sztucznej inteligencji, które są poniżej tej regulacji – ona obejmuje systemy zakazane, systemy wysokiego ryzyka jako zasadę, to jest 99% planowanej regulacji – otwiera olbrzymią drogę do badania obszarów przez legislatorów krajowych, gdzie ingerencja legislacyjna jest konieczna. I jednak trzeba też pamiętać, że ta regulacja europejska oparta jest o pewne zasady. Zasady zostały wypracowane przez grupę roboczą ekspertów wysokiego szczebla i przyjęte przez Komisję Europejską jako podstawa europejskiej strategii w sprawie sztucznej inteligencji.</u>
<u xml:id="u-1.135" who="#DominikLubasz">I mamy trzy filary tej strategii: zgodność z prawem, etyczność i solidność. I część elementów, o których państwo dzisiaj mówiliście – między innymi kwestia dyskryminacji, transparentności, czyli wyjaśnialności sztucznej inteligencji, godności, czy wreszcie aspektów związanych z nadzorem człowieka, które dla celów kontroli decyzji wydawanych przez system mają kluczowe znaczenie – nakładają ramy na to, jak będzie, w czym będzie się poruszał legislator, legislator krajowy. Oczywiście one są bardzo wysokopoziomowe, tym niemniej są one wypracowane przy udziale państw członkowskich jako te, które są osadzone głęboko w naszej historii konstytucyjnej, w naszych prawach podstawowych, które czerpią z naszych konstytucji, które zostały przeniesione do Karty praw podstawowych Unii Europejskiej. To jest jeden komentarz.</u>
<u xml:id="u-1.136" who="#DominikLubasz">Drugi komentarz jest taki, że Akt o sztucznej inteligencji akurat w zakresie prawa pracy traktuje obszar prawa pracy jako obszar wysokiego ryzyka i obejmuje regulacją.</u>
<u xml:id="u-1.137" who="#DominikLubasz">I z kolei trzeci komentarz jest taki, że nie jestem wcale przekonany co do tego, że Unia Europejska bardzo zwlekała z tą regulacją. Wręcz przeciwnie, zwłaszcza ostatnia prosta tej regulacji była taka, w której chciano dokończyć prace regulacyjne pomimo pewnych sporów pomiędzy państwami członkowskimi co do, między innymi, generatywnej sztucznej inteligencji, właśnie po to, żeby osiągnąć prymat regulacyjny na świecie, w skali globalnej; żeby powtórzyć to, co zostało osiągnięte na gruncie rozporządzenia ogólnego o ochronie danych osobowych, czyli RODO.</u>
<u xml:id="u-1.138" who="#DominikLubasz">Chodziło o wywołanie tak zwanego efektu brukselskiego, pojęcia, które ukuła profesor prawa Uniwersytetu Columbia Anu Bradford. To ona właśnie, analizując przepisy o ochronie danych osobowych, zwróciła uwagę na ton regulacyjny, który graczom globalnym narzuca Unia Europejska. Ta idea legła też u podstaw szybkości – względnej, no bo jednak liczonej w latach – postępowania legislacyjnego, dotyczącego Aktu o sztucznej inteligencji z jednej strony, a z drugiej strony tego, jakich obszarów on dotyczy, bo również ma w swoich zamierzeniach i w obszarze regulacji, która jest zaprojektowana, wspieranie innowacji, o których mówił pan poseł. I to te obszary, na które chciałem zwrócić uwagę. Dziękuję.</u>
<u xml:id="u-1.139" who="#BadańiInnowacjiMinisterstwaCyfryzacjiPamelaKrzypkowska">Bardzo dziękuję za głos przedmówcy, bo on jest bardzo istotny. I jeszcze chciałam dodać jedną rzecz, żeby to wybrzmiało w pełni. De facto oczekujemy w maju, czerwcu, że zacznie się tak zwane vacatio legis, od którego będziemy mieli pół roku, rok i dwa lata do wprowadzenia wszystkiego, co de facto znaczy, że ten horyzont czasowy jest bardzo krótki, więc bardzo chciałabym, żebyśmy mieli perspektywę tego horyzontu czasowego.</u>
<u xml:id="u-1.140" who="#BadańiInnowacjiMinisterstwaCyfryzacjiPamelaKrzypkowska">Po drugie, chciałbym wspomnieć o jeszcze jednej istotnej rzeczy. Nie jest ważne tylko to, żeby ta regulacja była dobrze wprowadzona, ale także żebyśmy zadbali o to de facto wspólnie, żeby obywatele, obywatelki, przedsiębiorcy mieli perspektywę, czego tak naprawdę od nich wymagamy, a także to zrozumienie tego, co leży u podstaw sztucznej inteligencji, w prosty sposób jest kluczowe, żeby osoby mogły podejmować uświadomione decyzje w zakresie sztucznej inteligencji. Więc uważam, że to jest też bardzo ważny element, który musimy dodać do tej dyskusji. Dziękuję.</u>
<u xml:id="u-1.141" who="#PiotrPęzikprofucz">Chciałbym tutaj zwrócić uwagę na takie rozróżnienie, którego musimy być świadomi, bo ta zmiana, którą obserwujemy w ostatnim czasie, również w postrzeganiu sztucznych inteligencji, zagrożeń z nimi związanych, wynika w dużej mierze z pojawienia się generatywnej sztucznej inteligencji. Tu trochę mówiliśmy o tym, kto odpowiada za to, jakie dane były wprowadzane do systemu i co z tego wyszło czy miała miejsce na przykład jakaś dyskryminacja i tak dalej.</u>
<u xml:id="u-1.142" who="#PiotrPęzikprofucz">Natomiast jeżeli chodzi o generatywną sztuczną inteligencję, to dużo trudniej jest zdefiniować taką odpowiedzialność, a także regulować ją, ponieważ te modele są – i tu taki techniczny termin się pojawia – autoregresywne. To znaczy one zasilają się tym, co właśnie powiedziały. I generalnie obserwuje się taką zależność, że im dłuższa jest wypowiedź na przykład modelu językowego, tym większe jest prawdopodobieństwo, że on zacznie produkować jakieś halucynacje. No więc tutaj jest pewna trudność w zdefiniowaniu tego, kto odpowiada, ponieważ ta skłonność modeli trochę nie wynika z tego, jakie dane włożyliśmy i jest też długofalowe ryzyko tego, że będziemy zalewani treścią wychodzącą z modeli generatywnych i informacja czy świat informacji, w którym się poruszamy, będzie w dużej mierze wynikiem tego, co te modele wyprodukowały i, tak jak widzimy, nie tylko modele tekstowe, ale też modele produkujące obrazy, już teraz minutowe. Czyli będziemy się poruszali w środowisku wygenerowanym przez te modele.</u>
<u xml:id="u-1.143" who="#PiotrPęzikprofucz">Chciałem tylko zwrócić uwagę na to rozróżnienie między taką sztuczną inteligencją, której rzeczywiście możemy zdefiniować dane wejściowe, jakieś oczekiwane wyjścia, od tej generatywnej, która ma swobodę tworzenia halucynacji, a potem zasilania się tymi halucynacjami, bo przecież kolejne modele mogą się zasilać tymi danymi, które poprzednie wygenerowały. Tak więc tutaj też są jakieś nieokreślone dobrze ryzyka.</u>
<u xml:id="u-1.144" who="#DominikaKaczorowskaSpychalska">Ale to wszystko tak naprawdę sprowadza się znowu do kwestii, o których tutaj częściowo też wspomniałam w swoim wystąpieniu, a więc tego, jak dzisiaj współpracujemy z tą sztuczną inteligencją. Te przywołane przeze mnie centaury i cyborgi mają znaczenie też z punktu widzenia też tego, jak jako społeczeństwo postrzegamy tę sztuczną inteligencję, na ile jej ufamy, a na ile ufamy potem też dalej firmom, które poszczególnymi narzędziami opartymi na sztucznej inteligencji będą się posługiwały.</u>
<u xml:id="u-1.145" who="#DominikaKaczorowskaSpychalska">I tu tak naprawdę wracamy trochę też do kwestii związanych z tym, jak społeczeństwo postrzega i gdzie widzi tę sztuczną inteligencję. Bo prawda jest taka, że sztuczna inteligencja jest technologią, o której bardzo dużo mówimy, ale jeśli spytamy społeczeństwo czym jest, to na ogół kojarzy ją z robotami albo nie potrafi w żaden sposób zdefiniować. Ona właściwie stała się wszechobecna. I patrząc poprzez pryzmat funkcjonalności, tak naprawdę powinniśmy zastanowić się, jak zbudować właśnie ową świadomość, o której wspomniałam, tę świadomość społeczną tego, czym jest ta sztuczna inteligencja, gdzie pojawiają się wyzwania i jak tym wyzwaniom sprostać.</u>
<u xml:id="u-1.146" who="#DominikaKaczorowskaSpychalska">I tylko dodając jeszcze do jednej z wcześniejszych wypowiedzi dotyczących samych robotów, to chciałam zwrócić uwagę, że te roboty humanoidalne pojawiają się coraz częściej w naszej przestrzeni. Takim świetnym przykładem jest chociażby firma Dictador, gdzie humanoidalny robot Mika pełni funkcję CEO, podejmując szereg decyzji.</u>
<u xml:id="u-1.147" who="#SylwiaWojtczak">Ala ja chciałabym odnieść się do takiego pobrzmiewającego tutaj tonu obawy, tonu strachu, który również odnosi się do kwestii związanych chociażby właśnie z rynkiem pracy, z kwestią dyskryminacji i tak dalej. Otóż po pierwsze, proszę państwa, musimy pamiętać, że jesteśmy tu i teraz, ale technologia cały czas się rozwija. Są wprowadzane różnego rodzaju zabezpieczenia. Coraz lepiej rozpoznane są te niebezpieczeństwa i w związku z tym kwestia zagrożenia na przykład dyskryminacją wyglądała zupełnie inaczej pięć lat temu, niż wygląda w tej chwili, również ze względu na wzrost świadomości w tym zakresie.</u>
<u xml:id="u-1.148" who="#SylwiaWojtczak">Po drugie – musimy brać pod uwagę to, że wiele z tych zjawisk, które w tej chwili wydają się nam tak straszne i niebezpieczne, miało miejsce w przeszłości. Tyle tylko, że nie były tak dobrze rozpoznane. No ale kwestia na przykład pewnego ograniczenia treści kulturowych, z którym możemy mieć do czynienia w wyniku oddziaływania różnego rodzaju nowych technologii sztucznej inteligencji nie jest niczym nowym, bo podobnie ograniczająco działały różnego rodzaju kanały komunikacji. Treści drukowane czy treści nadawane przez inne media zawsze produkowały pewną wąską wiązkę informacji, która później była powielana, rozprzestrzeniała się i była źródłem wiedzy o otaczającym nas świecie, czego najlepszym przykładem jest zjawisko kulturowego europocentryzmu czy etnocentryzmu, związane z tym, że te treści najszybciej i najefektywniej produkowali i rozprzestrzeniali przedstawiciele na przykład Europy czy w ogóle generalnie białej rasy, mającej w swojej dyspozycji różnego rodzaju środki. Także to nie są zjawiska nowe.</u>
<u xml:id="u-1.149" who="#SylwiaWojtczak">I trzecia kwestia, o której chciałam wspomnieć szybciutko, to jest kwestia wielkości ryzyka. Musimy sobie zdać sprawę z tego, że po pierwsze z tym ryzykiem mieliśmy do czynienia do tej pory zawsze wtedy, kiedy chodziło o procesy masowe. Wszędzie tam, gdzie mieliśmy do czynienia z masowymi procesami, z masowym podejmowaniem masowych decyzji, mieliśmy do czynienia z ryzykiem. I zaryzykowałbym tezę, że sztuczna inteligencja zmieniła tutaj nie tak wiele, zwłaszcza jeżeli weźmiemy pod uwagę to, że ona się stale doskonali. A ponadto musimy wziąć pod uwagę fakt, którego cały czas nie bierze się pod uwagę wtedy, kiedy mówi się o ryzyku związanym ze sztuczną inteligencją, a mianowicie, że człowiek, który podejmuje decyzje, jest również omylny. I w związku z tym, skoro nie oczekujemy od człowieka stuprocentowej nieomylności, to może błędem jest oczekiwać takowej stuprocentowej nieomylności od systemów natury technologicznej.</u>
<u xml:id="u-1.150" who="#SylwiaWojtczak">Pytanie tylko, czy te systemy są mniej omylne niż człowiek, czy bardziej omylne. Jeśli są mniej omylne niż człowiek, to jest to przecież już postęp w stosunku do tego, z czym mieliśmy dzisiaj do czynienia i uważam, że biorąc pod uwagę te wartości, które chcemy realizować, to warto może zaryzykować, żeby skorzystać z tej mniej omylnej i sztucznej inteligencji, niż pozostać przy nieco bardziej omylnych ludzkich decyzjach. Dziękuję.</u>
<u xml:id="u-1.151" who="#EwaStaszewskaKozłowska">Ja bardzo króciutko chciałabym nawiązać do wypowiedzi pana profesora Stefańskiego oraz pani profesor Dagmary Skupień w kontekście dyskryminacji algorytmicznej. Chciałabym tylko pokazać pewien przykład, z jakim mieliśmy do czynienia w polskim ustawodawstwie na gruncie Ustawy z dnia 20 kwietnia 2004 r. o promocji zatrudnienia i instytucjach rynku pracy z, gdzie w pewnym momencie ustawodawca wprowadził profilowanie pomocy dla osób bezrobotnych, gdzie osoby rejestrujące się w urzędzie pracy, w zależności od tego, w jaki sposób udzieliły odpowiedzi na pytania, które były tworzone przez algorytm, były przypisywane do określonej grupy. Tam były trzy profile. I kończyło się to tak, że osoby, które na skutek udzielonych odpowiedzi trafiały do grupy trzeciej, miały ograniczony dostęp do pomocy, jeżeli chodzi o usługi, instrumenty rynku pracy. Tak że jest to bardzo ważne zagadnienie, na które trzeba zwracać uwagę w kontekście tego, o czym tutaj mówiliśmy. Bardzo dziękuję.</u>
<u xml:id="u-1.152" who="#PawełBliźniuk">Chciałem doprecyzować, bo tu się pojawiła kwestia Chin. Mówię tylko o tym, że nie jesteśmy zawieszeni w próżni. Warto patrzeć na to, co dzieje się na świecie – również w Stanach Zjednoczonych, na Bliskim Wschodzie – jeżeli chodzi o te regulacje i też rozwiązania. Bo jedną rzeczą jest uregulowanie i okiełznanie sztucznej inteligencji. Myślę, że tutaj nie mamy żadnych wątpliwości, że musimy to zrobić. No ale sam fakt, że pani profesor wskazała na regulacje dotyczące ponownego przetwarzania danych publicznych, a pan profesor skwitował to, jak to w praktyce wygląda, to cieszy mnie, że jest też obecne Ministerstwo Cyfryzacji. Mam nadzieję, że ta kwestia została odnotowana, bo dla rozwoju naszej przedsiębiorczości – a będę w tej debacie trochę rzecznikiem polskich przedsiębiorców, startupów i potencjalnego wykorzystania tych nowych technologii w rozwoju naszego biznesu i gospodarki – nawet jeżeli będziemy mieli najlepsze regulacje, to też trzeba patrzeć, jak one są w praktyce wykorzystywane.</u>
<u xml:id="u-1.153" who="#PawełBliźniuk">I rzeczywiście sposób, w jaki są zbierane dane w sektorze publicznym.… Zajmowałem się tym na poziomie samorządu, ale to wymaga pewnego spojrzenia i może pewnych inicjatyw ze strony już rządowej, żeby to środowisko bazodanowe było takie, które możemy wykorzystywać właśnie przy procesowaniu sztucznej inteligencji. Jak będzie już ten język, no to fajnie, jakbyśmy jej dostęp do różnych danych, które gromadzimy w sposób wykładniczy... Również na poziomie samorządu są ogromne ilości danych, które warto wykorzystać. Na przykład to jest jednym z priorytetów, jeżeli chodzi o rozwój sztucznej inteligencji w innych państwach na świecie, że właśnie to środowisko bazodanowe jest w taki sposób tworzone, żeby te startupy miały do niego szybki dostęp, bo te dane są jednym z fundamentów rozwoju sztucznej inteligencji, wykorzystaniu monetyzacji jakichkolwiek rozwiązań.</u>
<u xml:id="u-1.154" who="#PawełBliźniuk">Tutaj ambitni, pełni pomysłów przedsiębiorcy są w stanie znajdować rozwiązania, które później pozwalają właśnie implementować nowe technologie, sztuczną inteligencję do biznesu. I w formule takich startupów, gdzie sprawdzamy, czy coś działa, czy nie działa, czy przyjmuje się, czy nie, generowanych też przy finansowym wsparciu państwa, samorządów w wielu miejscach na świecie…No daje to niesamowity feedback, jeżeli chodzi o późniejszy rozwój gospodarczy, więc myślę, że warto o tym myśleć. Przy idei smart city, czy właśnie rozwoju sztucznej inteligencji w Polsce, kwestią, która blokuje nas najbardziej, jest chyba właśnie kwestia środowiska bazodanowego, gdzie, moim zdaniem, potrzebne jest spojrzenie holistyczne z punktu widzenia ministerstwa na to zagadnienie. I dobrze, że to dzisiaj wybrzmiało. Panie przewodniczący, dziękuję za możliwość uzupełnienia swojej wypowiedzi.</u>
<u xml:id="u-1.155" who="#BartłomiejPejo">Szanowni Państwo, zatem zamykam dyskusję, na tym wyczerpaliśmy porządek dzienny posiedzenia, bardzo serdecznie raz jeszcze dziękuję władzom Wydziału Prawa i Administracji Uniwersytetu Łódzkiego za gościnę, za serdeczne przyjęcie nas parlamentarzystów. Dziękuję wszystkim przybyłym gościom. Dziękuję za udział w dyskusji. Temat, jak widzimy i słyszymy, jest bardzo obszerny, wymagający kolejnych rozmów, kolejnych tego typu spotkań, kolejnych posiedzeń Komisji.</u>
<u xml:id="u-1.156" who="#BartłomiejPejo">Serdecznie wszystkich państwa, wszystkich zapraszam do współpracy z Komisją również w Warszawie, również podczas kolejnych posiedzeń Komisji. Zapraszam do kontaktu z sekretariatem Komisji. Jesteśmy otwarci na dialog, na współpracę z państwem, z ekspertami. Przed nami dużo pracy, jak stwierdzili w zasadzie wszyscy państwo. Natomiast na pewno warto przyspieszać prace związane z kwestią sztucznej inteligencji. Raz jeszcze bardzo serdecznie dziękuję i do zobaczenia.</u>
</div>
</body>
</text>
</TEI>
</teiCorpus>