text_structure.xml
31.6 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
<xi:include href="PPC_header.xml" />
<TEI>
<xi:include href="header.xml" />
<text>
<body>
<div xml:id="div-1">
<u xml:id="u-1.0" who="#GrzegorzNapieralski">Szanowni państwo otwieram posiedzenie podkomisji stałej do spraw regulacji prawnych dotyczących algorytmów cyfrowych.</u>
<u xml:id="u-1.1" who="#GrzegorzNapieralski">Stwierdzam kworum.</u>
<u xml:id="u-1.2" who="#GrzegorzNapieralski">Witam państwa posłów członków podkomisji. Witam bardzo serdecznie. Bardzo serdecznie witam pana Huberta Życińskiego, zastępcę dyrektora Departamentu Innowacji w Ministerstwie Zdrowia. Dzień dobry, panie dyrektorze. Witam pana Tomasza, pan prezes przyjdzie do nas, gdyż właśnie powiedział, że trwa jeszcze jedno posiedzenie komisji. Dzisiaj niestety mamy pecha.</u>
<u xml:id="u-1.3" who="#GrzegorzNapieralski">Od razu powiem to do naszych gości, że są posiedzenia komisji dotyczące budżetu, już nie chcieliśmy tego odkładać, bo musimy przegłosować budżet. Spotkałem pana prezesa, bardzo przepraszał, mam nadzieję, że dotrze.</u>
<u xml:id="u-1.4" who="#GrzegorzNapieralski">Witam panią Katarzynę Araczewską, zastępcę dyrektora w Departamencie Ochrony Zbiorowych Interesów Konsumenta; panią Monikę Chojecką, naczelnika w Departamencie Ochrony Zbiorowych Interesów Konsumenta. Dzień dobry, witam serdecznie. Witam pana Jakuba Adamskiego, dyrektora Departamentu Strategii i Działań w Biurze Rzecznika Praw Pacjenta – jeszcze go nie ma z nami. Witam pana Piotra Maciejewskiego reprezentującego Urząd Ochrony Danych Osobowych. Dzień dobry, witam bardzo serdecznie.</u>
<u xml:id="u-1.5" who="#GrzegorzNapieralski">Witam przedstawicieli środowiska akademickiego, pracowników naukowych Akademii Leona Koźmińskiego: panią Katarzynę Kolasę, kierownika Zakładu Ekonomiki Zdrowia i Zarządzania Opieką Zdrowotną. Dzień dobry, pani profesor. Witam panią Annę Zawadę, eksperta w dziedzinie technologii medycznych. Witam pana Leona Ciechanowskiego, specjalizującego się w praktycznym zastosowaniu algorytmów uczenia maszynowego oraz sztucznej inteligencji do rozwiązywania badawczych i biznesowych, oraz pana Jana Zygmuntowskiego zajmującego się zarządzaniem danymi oraz ekonomią innowacji i nowych technologii. Witam serdecznie pana Radosława Nielka, stałego doradcę Komisji. Dzień dobry, witam bardzo serdecznie.</u>
<u xml:id="u-1.6" who="#GrzegorzNapieralski">Porządek dzisiejszego posiedzenia przewiduje dyskusję na temat wprowadzenia innowacyjnych metod leczenia opartych na sztucznej inteligencji, mających na celu poprawę zdrowia i bezpieczeństwa pacjentów.</u>
<u xml:id="u-1.7" who="#GrzegorzNapieralski">Czy są uwagi do porządku obrad? Nie widzę.</u>
<u xml:id="u-1.8" who="#GrzegorzNapieralski">Szanowni państwo, przystępujemy do realizacji porządku dziennego.</u>
<u xml:id="u-1.9" who="#GrzegorzNapieralski">Chciałem tylko wytłumaczyć nieobecność pana ministra, który o to poprosił, dzisiaj z nim o tym rozmawiałem. Podkreślił, że resort zdrowia jest bardzo zainteresowany tą współpracą. Zresztą pan dyrektor także opowie o tym, co się tam dzieje, a są to ciekawe rozwiązania, które mają być zakończone do końca tego roku. Dlatego posiedzenie podkomisji zostało zwołane w dobrym czasie, jeżeli chodzi o współpracę w tym zakresie.</u>
<u xml:id="u-1.10" who="#GrzegorzNapieralski">Słowem wprowadzenia, nasza podkomisja pracuje od początku kadencji. Etap naszej współpracy dotyczący algorytmów w ocenie pracowników i ich pracy został zakończony. Dzisiaj przechodzimy w całkowicie inny obszar naszego zainteresowania, czyli obszar systemów ochrony zdrowia, które są bardzo ważne, gdyż wpływają bezpośrednio na nasze bezpieczeństwo, zdrowie oraz życie.</u>
<u xml:id="u-1.11" who="#GrzegorzNapieralski">Bardzo dziękuję pani profesor za to, że mogliśmy niejednokrotnie się spotkać i porozmawiać o tym. Od razu proszę panią profesor o przedstawienie kilkuminutowej prezentacji, tak abyśmy mogli się temu przyjrzeć. Jest ona ciekawa, myślę, że koledzy posłowie odniosą się tej prezentacji oraz zgłoszą swoje ewentualne poprawki bądź sugestie. Oczywiście zaproszeni goście także mają do tego prawo.</u>
<u xml:id="u-1.12" who="#GrzegorzNapieralski">Pani profesor, oddaję głos. Jeszcze raz serdecznie dziękuje.</u>
</div>
<div xml:id="div-2">
<u xml:id="u-2.0" who="#KatarzynaKolasa">Katarzyna Kolasa, bardzo mi miło. Reprezentuję Akademię Leona Koźmińskiego, gdzie pracuję od 4 lat, prowadzę Zakład Ekonomiki Zdrowia. Doktorat obroniłam 14 lat temu, habilitację 5–6, obydwa tematy moich prac naukowych dotyczyły ekonomiki zdrowia. Zajmuję się głównie optymalizacją alokacji środków w ochronie zdrowia, od ponad 4 lat cyfryzacją.</u>
<u xml:id="u-2.1" who="#KatarzynaKolasa">Bardzo się cieszę na to dzisiejsze spotkanie, ponieważ od momentu kiedy zaczęłam się interesować naukowo cyfryzacją, czuję potrzebę zwrócenia uwagi opinii publicznej na ten temat. Przede wszystkim jednak państwa decydujących o tym, jak powinny wyglądać polskie ramy prawne, ale również normy społeczne i kulturowe, które powinniśmy ustalić w związku z reformą, jaka nas czeka w systemie ochrony zdrowia, po to żeby się przygotować na transformację cyfrową.</u>
<u xml:id="u-2.2" who="#KatarzynaKolasa">Poza Polską działamy aktywnie również w tym obszarze. Poza publikacjami naukowymi i badaniami, o których tutaj troszkę wspomnę, zainicjowałam specjalną grupę roboczą w ramach organizacji, zrzeszającą wszystkich ekonomistów do spraw ochrony zdrowia w świecie Digital Health. W chwili obecnej realizujemy na Akademii Leona Koźmińskiego kurs „Digital Health – Start me up”, proponujemy szukanie liderów transformacji cyfrowej poprzez właśnie tę inicjatywę edukacyjną.</u>
<u xml:id="u-2.3" who="#KatarzynaKolasa">Według mnie zainteresowanie cyfryzacją powinno być dla wszystkich, nie tylko z powodu, iż jest to „fajny” temat i trend naukowy. Przede wszystkim z tego powodu, że w związku ze starzejącym się społeczeństwem i niedoborem kadry medycznej według Światowej Organizacji Zdrowia w ciągu kolejnych 6–7 lat zabraknie około 4 mln pracowników sfery medycznej.</u>
<u xml:id="u-2.4" who="#KatarzynaKolasa">Mamy do czynienia z ogromnym przełomem technologicznym. Niektóre szacunki wskazują, że jest to rynek warty już ponad 10 mld dolarów. Wydaje mi się, że są one niedoszacowane, patrząc na liczbę startupów działających chociażby w tym obszarze. Z grupą naukowców zrobiliśmy niedawno przegląd wszystkich publikacji naukowych. Mam tu na myśli publikacje, które są oparte o impact factor, czyli mają wartość wiarygodności dodanej. Do wdrażania w systemie ochrony zdrowia jest już dostępnych ponad 6900 algorytmów, jest to ponad 188 przeglądów systematycznych, które przejrzeliśmy z dużą dokładnością i cały czas przeglądamy.</u>
<u xml:id="u-2.5" who="#KatarzynaKolasa">Amerykańska agencja zajmująca się wdrażaniem technologii medycznych wprowadziła już na rynek amerykański ponad 500 algorytmów. Wciąż są jednak znaczące braki we wdrożeniu. Mam na myśli sferę publiczną, mam na myśli przygotowanie finansowania dla tych rozwiązań. Nie chciałabym tu brzmieć negatywnie. Po prostu jeżeli spojrzymy, że nawet w Stanach w ramach bezpłatnego korzystania przez kadrę medyczną i pacjentów wdrożonych algorytmów jest zaledwie 10, to zrozumiemy skalę problemu.</u>
<u xml:id="u-2.6" who="#KatarzynaKolasa">Dlatego bardzo się cieszę – jeszcze raz zwracam się do państwa i pana Napieralskiego – z tej ogromnej inicjatywy. Mamy szansę być prekursorem we wprowadzeniu czegoś nowego. Nie są to dla mnie tylko ramy legislacyjne. Za chwilę powiem, dlaczego uważam, że temat jest szerszy niż problem legislacyjny.</u>
<u xml:id="u-2.7" who="#KatarzynaKolasa">Szans jest nieskończona ilość i nie mówię tego dlatego, że jestem naukowcem, który ma nieograniczony entuzjazm do sztucznej inteligencji, ale mówię to dlatego, że czytam, słucham i uczę się sama. Myślę, że każdy z nas niestety jest na etapie szkoły podstawowej, jeśli chodzi o sztuczną inteligencję, ale mamy wiele sukcesów przed sobą.</u>
<u xml:id="u-2.8" who="#KatarzynaKolasa">Aplikacje pomagają kadrze medycznej w diagnostyce onkologicznej, aplikacje medyczne przyczyniają się do tego, że nie tylko leczymy skuteczniej, leczymy przede wszystkim szybciej. Bo każdy z nas ma dostęp do wiedzy, zanim wystąpią symptomy choroby. Nie wiem, czy ktoś z państwa korzysta, ale nawet jeżeli nie korzystacie, to chciałam zwrócić uwagę, że telefon iPhone mierzy państwu liczbę kroków, mierzy państwu jakość snu etc. W tak zwanym międzyczasie, nie korzystając z tych aplikacji. Każdy widzi, jak doskonale albo niedoskonale zarządza własnym zdrowiem.</u>
<u xml:id="u-2.9" who="#KatarzynaKolasa">Chciałam zwrócić uwagę na poprawę jakości życia. System ochrony zdrowia przez cyfryzację zmienia nam swoje granice, to nie jest gabinet lekarski, szpital, tylko to jest nasz telefon komórkowy i to, co robimy na co dzień. Przykładów na to, jak to kraje, które przodują w wykorzystaniu tego potencjału, kroczą do przodu, jest całe mnóstwo. W Singapurze czy w Japonii liczby kroków u osób podatnych na choroby typu cukrzyca czy układu krążenia przedkłada się na discounty w sklepach, czyli jest to system ochrony zdrowia przyszłości. W Atenach z kolei jest specjalny urząd monitorujący, jak społeczeństwo, szczególnie osoby starsze, radzi sobie z upałami.</u>
<u xml:id="u-2.10" who="#KatarzynaKolasa">To nie są bagatelne problemy, one przekładają się na ogromne koszty systemu. Przyszedł ze mną kolega, który zajmuje się dostępem do danych publicznych. Rozwiązania Findata w Finlandii pokazują, jak sztuczna inteligencja może rozwijać się w trybie ekspresowym, mając na uwadze dostęp do danych.</u>
<u xml:id="u-2.11" who="#KatarzynaKolasa">Temat cyfryzacji w ochronie zdrowia to ogromna skala zagrożeń, dlatego istotne jest, abyśmy z olbrzymią powagą podeszli do naszego wyzwania. Jeszcze raz podkreślam, jak bardzo cieszy mnie, że ta inicjatywa powstaje. Z ramienia Akademii Leona Koźmińskiego potwierdzam po wielokroć naszą nieograniczoną chęć współpracy i współdziałania, nie tylko z uwagi na te sukcesy, które są przed nami, ale przede wszystkim z uwagi na zagrożenia. Te zagrożenia są to historie, które możemy czytać na Pudelku czy Onecie, ale przede wszystkim możemy czytać w „New York Times”. To są zagrożenia, które wynikają z błędnego wykorzystania danych, z kradzieży danych. Miało to miejsce np. w Finlandii, gdzie osoby, które radziły się psychoterapeuty zdalnie, były narażone później na upublicznienie swoich danych. Niebagatelna była również sprawa absolwentki Stanford, która najpierw zbiła fortunę i była jedną z bilionerek poniżej 30. roku życia, po czym w tej chwili trafia na 20 lat do więzienia za to, że skłamała, jeśli chodzi o swoją innowację.</u>
<u xml:id="u-2.12" who="#KatarzynaKolasa">Potrzeba nam więc kryteriów oceny tych rozwiązań, po to żeby nie tylko deweloperzy mieli świadomość, na co się decydują, ale przede wszystkim my jako społeczeństwo wiedzieli, że to, z czego korzystamy, ma wiarygodność. Słowo wiarygodność przybiera na sile bardziej niż lek, bardziej niż wyrób medyczny, ponieważ w obu przypadkach to lekarz daje nam tę wiarygodność. Tutaj korzystamy sami i nie ma tej przestrzeni do tego, żebyśmy tę wiarygodność sobie sprawdzili, bo z jakiej racji mamy wiedzieć, jak dany algorytm powstał?</u>
<u xml:id="u-2.13" who="#KatarzynaKolasa">Przykłady na niewłaściwe wykorzystanie danych to nie tylko skandaliczne agendy, ale przede to, że… Dlatego jeszcze raz podkreślam, że mamy moc sprawczą nazw własnych, że algorytmy będą tak dobre jak dane, z których korzystają. Te dane muszą być z danej lokalizacji, gdzie pacjent funkcjonuje. Jest w literaturze mnóstwo przykładów pokazujących, że algorytm działający w jednym obszarze geograficznym daje właściwą diagnozę, a ten sam algorytm w innym obszarze diagnostycznym da złą diagnozę. Dlaczego? Ponieważ został zwalidowany na nie tych danych, nie tych chorych. Nie mówię tu nawet o różnicach rasowych, ale o różnicach w procesie oceny pacjenta pod kątem diagnostycznym i postępowania jego choroby. To jeden z przykładów.</u>
<u xml:id="u-2.14" who="#KatarzynaKolasa">Dlatego jako Akademia Leona Koźmińskiego, licząc na wsparcie ze strony państwa, ale też mając na uwadze możliwość wspólnego działania, chcieliśmy zwrócić uwagę, że cel, jaki powinien nam przyświecać, to ustalenie kryteriów oceny. Czyli szukając, gdzie zacząć realizację naszej agendy, uważam, że najlepiej by było spojrzeć… Najlepiej dlatego, że nie ma na świecie czegoś takiego jak kryteria oceny wprowadzenia sztucznej inteligencji do systemu ochrony zdrowia. Na świecie jest ponad 70 różnych form screeningu czy kryteriów jakościowej oceny algorytmów, czy też takich screeningów, jakie przygotowało IBM czy Microsoft do oceny stronniczości danego algorytmu. Nie istnieje jednak żaden system, mechanizm, który miałby na uwadze kryteria oceny pod kątem bezpieczeństwa, wiarygodności i efektywności działania danego algorytmu.</u>
<u xml:id="u-2.15" who="#KatarzynaKolasa">W moim przekonaniu, niezależnie od tego, jak bardzo powinniśmy się cieszyć z tego, co robimy na poziomie europejskim, wciąż to są regulacje, które powinny być lokalne – z tych powodów, o których wcześniej wspomniałam. Myślę, że to też jest ta mentalność naszego kraju. Wiele działam za granicą i widzę różnice w mentalności. Nie mówię nas jako pacjentach, ale nas jako lekarzy. W związku z tym ta algorytmizacja ochrony zdrowia powinna przebiegać inaczej w kraju A versus w kraju B z uwagi na te uwarunkowania kulturowo-społeczne.</u>
<u xml:id="u-2.16" who="#KatarzynaKolasa">Bardzo istotna jest zmiana świadomości społecznej. Każdy z nas ma, myślę, nie jedno, nie dwa skojarzenia, jak to lekarz powiedział, w związku z tym temat mamy zamknięty. Nie mamy tematu zamkniętego. Choroba zawsze postępuje niezależnie od tego, jakie leczenie zostanie zastosowane. W związku z tym ta samoświadomość do samooceny, do samodbałości o swoje zdrowie też jest konieczna, już nie mówiąc o alfabetyczności cyfrowej.</u>
<u xml:id="u-2.17" who="#KatarzynaKolasa">Ania z kolei występowała wczoraj w Naczelnej Izbie Lekarskiej, gdzie jest grupa lekarzy innowatorów w ramach studiów, które teraz prowadzimy. My jako Koźmiński współpracujemy z Agencją Badań Medycznych, z innymi partnerami, z Gdańskim Uniwersytetem Medycznym. Widzimy to zainteresowanie. W związku z tym liczę też na to, że nie jesteśmy sami w tej pogoni za przygotowaniem schematów działania.</u>
<u xml:id="u-2.18" who="#KatarzynaKolasa">Pozwoliliśmy sobie, bardzo wstępnie, pod państwa rozwagę dać taki schemat działania, żeby jednocześnie mieć tempo w naszych pracach, tak jak jest tempo rozwijającej się algorytmizacji ochrony zdrowia. Myślę, że dla nas kluczowym punktem jest przegląd literatury, aby podejść z punktu widzenia doświadczeń innych krajów, zwrócić uwagę również na błędy i sukcesy innych krajów.</u>
<u xml:id="u-2.19" who="#KatarzynaKolasa">Natomiast to, co wydaje mi się dla nas kluczowym, to spojrzenie na to, czego społeczeństwo oczekuje w kontekście przygotowania korzystania ze sztucznej inteligencji. A każdy z nas w ten czy w inny sposób korzysta z niej na co dzień, dzwoniąc po kuriera czy dzwoniąc na infolinię w banku. Myślę więc, że ta świadomość już jest, nie ma natomiast świadomości, czego chcielibyśmy w ochronie zdrowia, jakimi kryteriami powinniśmy oceniać tę sztuczną inteligencję. To jest dla nas ten główny aspekt – chodzi o to, żeby skorzystać z doświadczeń innych krajów, ale przede wszystkim też zwrócić uwagę na to, co społeczeństwo myśli. Zatem chodzi o to, żeby przygotować pewne badania opinii publicznej, które z ramienia Akademii Leona Koźmińskiego z przyjemnością przeprowadzimy.</u>
<u xml:id="u-2.20" who="#KatarzynaKolasa">To by stanowiło z naszej strony taki wkład naukowy, żebyście państwo mieli pełen zakres wiedzy, ale też naszą opinię, opartą na wnioskach z badań opinii publicznej, co pozwoliłoby państwu podjąć decyzję, co dalej.</u>
<u xml:id="u-2.21" who="#KatarzynaKolasa">To tyle, myślę, że tytułem wstępu. Dziękuję.</u>
</div>
<div xml:id="div-3">
<u xml:id="u-3.0" who="#GrzegorzNapieralski">Pani profesor, bardzo dziękuję.</u>
<u xml:id="u-3.1" who="#GrzegorzNapieralski">Chciałem tylko dodać do tej wypowiedzi jedną rzecz. Otóż także Pomorski Uniwersytet Medyczny w osobie pana rektora zadeklarował chęć współpracy z podkomisją. Dostaliśmy jako podkomisja zaproszenie do Szczecina na specjalnie spotkanie, dyskusję, jak również pokazanie, nad czym tak naprawdę ta uczelnia pracuje. Mamy już więc wsparcie dwóch ośrodków naukowych, które chciałyby oczywiście w tym ważnym temacie nam pomagać.</u>
<u xml:id="u-3.2" who="#GrzegorzNapieralski">Bardzo dziękuję za tę krótką prezentację.</u>
<u xml:id="u-3.3" who="#GrzegorzNapieralski">Zapytam posłów zgromadzonych na sali, czy są jakieś pytania, uwagi co do takiej prezentacji? Nie wiem, czy pani profesor podkreśliła na koniec, iż w maju przyszłego roku chcielibyśmy zrobić dużą dyskusję poza murami parlamentu. Zaprosilibyśmy różne strony do takiej już poważnej debaty na podstawie zebranych doświadczeń, również z prac podkomisji. Zaczęlibyśmy nad tym pracować.</u>
<u xml:id="u-3.4" who="#GrzegorzNapieralski">Jeżeli nie ma na razie pytań, to zaproponowałbym, żeby pan dyrektor z Ministerstwa Zdrowia zabrał głos. Wywołuję specjalnie, dlatego że jestem po rozmowie z panem ministrem i wiem, że pracujecie nad różnymi rozwiązaniami. Jeżeli więc pan dyrektor mógłby się oczywiście tym podzielić… Jeżeli możemy też wspomóc jakoś w tych rozwiązaniach czy pracować wspólnie, to jesteśmy do państwa dyspozycji.</u>
<u xml:id="u-3.5" who="#GrzegorzNapieralski">Bardzo proszę, panie dyrektorze.</u>
</div>
<div xml:id="div-4">
<u xml:id="u-4.0" who="#HubertŻyciński">Dziękuję bardzo. Szanowny panie przewodniczący, Wysoka Komisjo, dziękuję przede wszystkim za zaproszenie na dzisiejsze spotkanie. Zgadzam się w wielu kwestiach z panią profesor. Ta tematyka jest tematyką ważną, istotną. Tematyką, która powinna trafić do nas wszystkich podobnie jak sztuczna inteligencja w ochronie zdrowia.</u>
<u xml:id="u-4.1" who="#HubertŻyciński">Z naszej perspektywy, z perspektywy Ministerstwa Zdrowia sztuczną inteligencją się interesujemy, zajmujemy, analizujemy możliwości wdrożenia rozwiązań sztucznej inteligencji do polskiego systemu ochrony zdrowia i pracujemy nad tymi rozwiązaniami. Te rozwiązania są głównie związane z „Krajowym planem odbudowy”, z projektami, które są tam zaplanowane. One dotyczą dwóch kluczowych kwestii czy dwóch kluczowych obszarów. Jednym z nich jest system oceny indywidualnego zdrowia, a drugim system wspomagania decyzji diagnostycznych i klinicznych.</u>
<u xml:id="u-4.2" who="#HubertŻyciński">Zanim o tych rozwiązaniach, to może powiem o naszej perspektywie związanej ze sztuczną inteligencją. Sztuczna inteligencja niesie za sobą bardzo dużo możliwości do wykorzystania, natomiast trzeba sobie powiedzieć, że wymaga dosyć dużej ostrożności, jeżeli chodzi o wdrażanie jej. Przede wszystkim wymaga zbudowania kompetencji w zakresie sztucznej inteligencji zarówno po stronie użytkowników, czyli profesjonalistów medycznych, jak i użytkowników indywidualnych.</u>
<u xml:id="u-4.3" who="#HubertŻyciński">Nie oczekuję, że użytkownik indywidualny będzie wiedział, co akurat dany algorytm w danej chwili robi i jak to funkcjonuje, bo zupełnie nie ma takiej potrzeby. Podobnie nie ma potrzeby, żeby lekarz był zorientowany, w jaki sposób konkretnie, technicznie ta sztuczna inteligencja działa. Natomiast ważne, żeby obie grupy miały świadomość wykorzystywania takiego instrumentu, świadomość zakresu interwencji sztucznej inteligencji w danym obszarze czy na danym odcinku oraz świadomość higieny sztucznej inteligencji. To są ważne kwestie i przed nami ta dyskusja. W naszym kraju ta dyskusja dzieje się także w przestrzeni publicznej.</u>
<u xml:id="u-4.4" who="#HubertŻyciński">Wspomnę o białej księdze sztucznej inteligencji, która została zaprezentowana, która wskazuje na kilka obszarów związanych ze sztuczną inteligencją. Przede wszystkim ważna jest pewna granica czy demarkacja, czym jest sztuczna inteligencja, a czym sztuczna inteligencja nie jest. Z naszego punktu widzenia sztuczna inteligencja jest narzędziem. Jest to coś, co nie powinno zastępować pracy i myśli lekarza, a przede wszystkim jego decyzji. Sztuczna inteligencja nie leczy, to lekarz leczy. Lekarz wykorzystuje sztuczną inteligencję, która go wspomaga w obszarach, w których przegrywa z technologią, choćby w przetwarzaniu dużych zespołów liczbowych, dużych zespołów danych, we wskazywaniu pewnych trendów, w pewnych szacowaniach czy porównywaniach. To sztuczna inteligencja, to maszyna robi dużo lepiej niż człowiek. Natomiast człowiek ma tu nadrzędną funkcję. Tak powinniśmy to traktować i interpretować – to człowiek podejmuje decyzję. Sztuczna inteligencja czy wspomagana inteligencja, jak można ją określać, żeby pozbyć się jakiegoś pejoratywnego wydźwięku – ta inteligencja ma wspomagać tę decyzję. To jest ważne.</u>
<u xml:id="u-4.5" who="#HubertŻyciński">Ważne jest też to, że nie ma przeciwwskazań do tego, żeby sztuczna inteligencja czy te narzędzia były wykorzystywane w ochronie zdrowia. Istnieją dość dobre procesy, żeby certyfikować te narzędzia, w tym narzędzia cyfrowe, które są wykorzystywane w procesie diagnozy czy leczenia. Jako ministerstwo jesteśmy otwarci na te możliwości i sądzimy, że dzięki sztucznej inteligencji możemy pomóc sobie w niekorzystnych tendencjach demograficznych, o których była mowa.</u>
<u xml:id="u-4.6" who="#HubertŻyciński">Rzeczywiście jest tak, że narzędzia, które możemy wykorzystać, mają potencjał odciążenia kadry medycznej, mają potencjał optymalizacji tej pracy, poprawy procesów. Korzyści można mnożyć, bo dla każdej grupy, dla każdego, dla każdej grupy interesariuszy te korzyści są nieco inne. Natomiast zdecydowanie przy dobrej implementacji mogą zaistnieć i sądzimy, że tak właśnie będzie.</u>
<u xml:id="u-4.7" who="#HubertŻyciński">W zakresie usług, o których mówiłem na początku, czyli systemu indywidualnej oceny zdrowia dla pacjenta i systemu wspomagania decyzji klinicznych, chciałbym powiedzieć, że sztuczna inteligencja umożliwia nam transformację cyfrową systemu ochrony zdrowia z systemu, który jest zorientowany na interwencję w obliczu choroby, na system zorientowany na profilaktykę. Chodzi zatem o przerzucenie tego ciężaru interwencji na wcześniejszy etap. A jesteśmy w stanie to zrobić, ponieważ przy założeniu, że dysponujemy szerszym zespołem danych na temat danego chorego, na temat danego obywatela – bo to nie musi być ani chory, ani pacjent, tylko obywatel – to możemy zaproponować pewne rozwiązania, które mogą wyeliminować stan kliniczny, on może w ogóle nie zaistnieć. Jest to więc bardzo ciekawy kierunek, który może zreformować nasz system ochrony zdrowia.</u>
<u xml:id="u-4.8" who="#HubertŻyciński">System indywidualnej oceny składa się z kilku rzeczy, które przyczynią się do tego, aby ta profilaktyka mogła zaistnieć w szerszym kontekście. To jest analiza danych o zdrowiu, które w systemie już obecnie są, z wykorzystaniem sztucznej inteligencji; to jest zbieranie takich danych, które pacjent może sam dostarczyć, choćby z urządzeń ubieralnych; to jest także analizowanie pewnych danych kontekstowych z internetu. To wszystko może nam posłużyć do tego, aby pacjenta bardziej angażować w zarządzanie własnym zdrowiem, żeby pacjent był przy odpowiednim działaniu edukacyjnym bardziej świadomy potencjału danych, które ma do dyspozycji w zakresie zdrowia, żeby był bardziej zaangażowany w ewentualną współpracę z profesjonalistą medycznym. To jest jeden obszar naszej koncentracji.</u>
<u xml:id="u-4.9" who="#HubertŻyciński">Drugi obszar to jest zastosowanie urządzeń i algorytmów z wykorzystaniem sztucznej inteligencji w codziennej pracy lekarzy, w sformułowaniu zestawu narzędzi wspomagających diagnostykę i leczenie danego obywatela czy pacjenta. Mamy tutaj do czynienia z szeregiem rozwiązań krajowych opartych na sztucznej inteligencji, którymi możemy się interesować. To oczywiście nie jest zamknięta lista.</u>
<u xml:id="u-4.10" who="#HubertŻyciński">Natomiast możemy mówić o analizie danych zdrowotnych, możemy mówić o analizie zażywanych leków, o badaniu interakcji tych leków, o rekomendowaniu dawek, o analizie opracowania medycznego, które wskazuje nam na zmiany – czy to będzie tomografia, czy to będą zdjęcia rentgenowskie, czy to będzie zwykłe zdjęcie w postaci jpg czy innego formatu. Zdjęcie, np. zdjęcie skóry, może nam posłużyć do diagnozowania zmian, które możemy klasyfikować nawet na poziomie POZ.</u>
<u xml:id="u-4.11" who="#HubertŻyciński">Reasumując, przed sztuczną inteligencją jest w naszej ocenie bardzo duża przyszłość i szansa. Wdrażanie sztucznej inteligencji musi być procesem świadomym i ewolucyjnym. Nie możemy dopuszczać do sytuacji, w której to sztuczna inteligencja przejmuje jakiś odcinek pracy profesjonalistów medycznych. Na pewno nie przejmuje odpowiedzialności za decyzje, które są wykonywane. W stowarzyszeniu z szerokim zespołem danych, które może być dostępne, sztuczna inteligencja jest coraz doskonalsza. W naszej ocenie mamy dobry, wystarczający potencjał krajowy, aby takie rozwiązania wytworzyć.</u>
<u xml:id="u-4.12" who="#HubertŻyciński">Na samo zakończenie powiem o wysiłkach legislacyjnych na poziomie Komisji Europejskiej, które w tej chwili się dzieją. Z jednej strony mają na one celu zwiększenie dostępności, transparentności i możliwości przetwarzania danych o zdrowiu, a z drugiej strony chodzi o dostarczenie takich systemów sztucznej inteligencji, które będą bezpieczne do tego, żeby z nich korzystać. Bo tak jak podkreślałem, nie możemy wymagać dogłębnej znajomości rozwiązań informatycznych od interesariuszy chcących korzystać z systemów sztucznej inteligencji.</u>
<u xml:id="u-4.13" who="#HubertŻyciński">Te systemy, te rozwiązania czy te działania, o których mówię na poziomie europejskim, to są dwa rozporządzenia. Jedno dotyczy sztucznej inteligencji, a drugie dotyczy europejskiej przestrzeni danych o zdrowiu. W oba jesteśmy aktywnie zaangażowani. W tej europejskiej przestrzeni danych o zdrowiu jesteśmy resortem wiodącym. Myślę, że tutaj się zatrzymam. Jeżeli będą jakieś pytania, to bardzo proszę.</u>
<u xml:id="u-4.14" who="#HubertŻyciński">Dziękuję.</u>
</div>
<div xml:id="div-5">
<u xml:id="u-5.0" who="#GrzegorzNapieralski">Bardzo dziękuję, panie dyrektorze.</u>
<u xml:id="u-5.1" who="#GrzegorzNapieralski">Bardzo dokładnie pana wysłuchałem i nie chciałbym, żeby było takie mylne wrażenie z naszej strony, podkomisji czy nawet kadry naukowej, która nas wspomaga. My także jesteśmy zwolennikami nowych technologii, innowacyjności, sztucznej inteligencji, tak naprawdę dobrego wpływu na to, co tak naprawdę to robi.</u>
<u xml:id="u-5.2" who="#GrzegorzNapieralski">Natomiast, tak jak w pierwszym przypadku, kiedy pracowaliśmy nad tymi algorytmami… Dzisiaj są one np. w firmach, które zatrudniają ludzi, ci ludzie pracują i są oceniani przez algorytm. Algorytm z jednej strony spowodował, że praca jest wydajniejsza i możemy oceniać pracowników, ale z drugiej strony nie wiedzieliśmy na jakiej podstawie – tutaj potrzebne były uregulowania prawne.</u>
<u xml:id="u-5.3" who="#GrzegorzNapieralski">Chcielibyśmy tak samo podejść do tego tematu. Nie jesteśmy absolutnie przeciwnikami, nie chcemy tutaj niczego absolutnie zatrzymywać, chcielibyśmy, tak jak pan powiedział na samym końcu swojej wypowiedzi, żeby wprowadzanie tego wszystkiego, co związane z algorytmami, nowymi technologiami, ale również sztuczną inteligencją, było wprowadzane świadomie. Żebyśmy my jako państwo albo jako człowiek mieli kontrolę nad tym, co tak naprawdę się dzieje, żebyśmy patrząc na to, co jest pozytywne, nie zrobili sobie krzywdy. Taka jest trochę też ta idea.</u>
<u xml:id="u-5.4" who="#GrzegorzNapieralski">Panie dyrektorze, szanowni państwo, powiem jeszcze o ostatnim wystąpieniu prezydenta Joe Bidena w tej kwestii. Zacytuję tylko tytuł tego wystąpienia „Joe Biden ustanawia kartę praw sztucznej inteligencji, aby chronić obywatela przed zagrożeniami ze strony zautomatyzowanych systemów”. Bardzo poważna dyskusja dzieje się szczególnie w Stanach Zjednoczonych. Chcielibyśmy, żeby taka właśnie debata, dyskusja polityczna i merytoryczna działa się na różnych poziomach też w Polsce. Żebyśmy też do tego, co pan mówił w swoim wystąpieniu, takiego edukacyjnego też dla społeczeństwa czy dla ludzi, którzy korzystają dzisiaj z różnych aplikacji, nie zawsze sprawdzonych… My ściągamy sobie jakąś aplikację tzw. zdrowotną, ona mówi: „to nam wpisz, to nam wpisz”, a potem: „zrób to, zrób to” i my uważamy, że jak to zrobimy, to już jesteśmy zdrowi, a to może być po prostu niebezpieczne. Stąd jest ta idea, żeby właśnie w tym temacie kontynuować pracę podkomisji, stąd to dzisiejsze spotkanie, takie pierwsze, robocze. Potem już będziemy posuwali się dalej.</u>
<u xml:id="u-5.5" who="#GrzegorzNapieralski">Czy ktoś jeszcze z zebranych chciałby zabrać głos, zadać pytanie?</u>
<u xml:id="u-5.6" who="#GrzegorzNapieralski">Patrząc na naszych profesorów, myślę, że warto jako podkomisja zerknąć na rozwiązania wprowadzone przez inne państwa na świecie, zobaczyć, jak sobie z tymi problemami radzą. Myślę, że warto też być może spotkać się… Chyba najbardziej dzisiaj zaawansowani w tej dyskusji, jeżeli chodzi o kwestie prawne, są Amerykanie. Być może trzeba więc poszukać tam partnera dla naszej podkomisji do współpracy, abyśmy mogli taką współpracę nawiązać?</u>
<u xml:id="u-5.7" who="#GrzegorzNapieralski">Jeżeli nie ma żadnych pytań, sugestii ani uwag do prezentacji i do wystąpienia pana dyrektora, to bardzo serdecznie dziękuję za dziś.</u>
<u xml:id="u-5.8" who="#GrzegorzNapieralski">Zamykam posiedzenie podkomisji.</u>
<u xml:id="u-5.9" who="#GrzegorzNapieralski">Wyczerpaliśmy porządek. Będę informował o kolejnych posiedzeniach.</u>
<u xml:id="u-5.10" who="#GrzegorzNapieralski">Dziękuję bardzo za przybycie, dziękuję wszystkim za obecność.</u>
</div>
</body>
</text>
</TEI>
</teiCorpus>