text_structure.xml
49.9 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
<xi:include href="PPC_header.xml" />
<TEI>
<xi:include href="header.xml" />
<text>
<body>
<div xml:id="div-1">
<u xml:id="u-1.0" who="#GrzegorzBernardNapieralski">Witam posłów, członków podkomisji. Na samym początku chciałem bardzo serdecznie powitać pana ministra Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji, i podziękować za przyjście. Dziękuję, że pan jest z nami, współpracuje. To dla podkomisji bardzo duży zaszczyt, bo nieczęsto ministrowie przychodzą na spotkania. Bardzo dziękuję, panie ministrze.</u>
<u xml:id="u-1.1" who="#GrzegorzBernardNapieralski">Witam wiceprezesa Najwyższej Izby Kontroli, pana Jacka Kozłowskiego. Dzień dobry, panie prezesie. Urząd Ochrony Danych Osobowych reprezentuje pan Tomasz Ochmański, dyrektor Departamentu Nowych Technologii. Witam serdecznie. Jest z nami także pan Jan Warszawa, dyrektor Departamentu Bezpieczeństwa w Urzędzie Komunikacji Elektronicznej. Dzień dobry, panie dyrektorze. Witam panią dyrektor Agnieszkę Karlińską, kierownika Zakładu Inżynierii Lingwistycznej i Analizy Tekstu, kierującą projektem PLLuM. Pani doktor reprezentuje na naszym posiedzeniu NASK. Dzień dobry, witam serdecznie. Witam panią dr Joannę Kołodziejczyk, adiunkta w Instytucie Łączności – Państwowym Instytucie Badawczym. Dzień dobry, pani doktor, witam serdecznie.</u>
<u xml:id="u-1.2" who="#GrzegorzBernardNapieralski">Bardzo serdecznie witam naszych prelegentów: pana Michała Nowakowskiego, przewodniczącego Sekcji Aktualnych Wyzwań Sztucznej Inteligencji przy Polskim Towarzystwie Informatycznym, oraz pana Wojciecha Bednaruka, członka sekcji, jak również pana profesora Przemysława Biecka, członka zarządu towarzystwa. Prezentacje i wystąpienia panów będą punktem wyjścia do naszej dzisiejszej dyskusji. Witam ekspertów reprezentujących organizacje branżowe, zawodowe i społeczne, Polską Izbę Komunikacji Elektronicznej, Polską Izbę Radiodyfuzji Cyfrowej, Związek Pracodawców Branży Internetowej IAB Polska, Fundację Panoptykon, Wikimedię, a także Stowarzyszenie @ELKApw. Witam wszystkich państwa bardzo serdecznie.</u>
<u xml:id="u-1.3" who="#GrzegorzBernardNapieralski">Porządek dzisiejszego posiedzenia przewiduje dyskusję na temat etycznych aspektów wdrażania i wykorzystywania systemów sztucznej inteligencji. Czy są uwagi do porządku obrad podkomisji? Nie widzę. Przystępujemy do realizacji planu.</u>
<u xml:id="u-1.4" who="#GrzegorzBernardNapieralski">Ja przypomnę jeszcze, że tak naprawdę pomysł dzisiejszego posiedzenia narodził się na wcześniejszym spotkaniu naszej podkomisji. Bardzo dziękuję osobom, które zainicjowały, że chciały przygotować, zaangażować się, przedstawić nam dzisiaj prezentację i rozpocząć tę dyskusję.</u>
<u xml:id="u-1.5" who="#GrzegorzBernardNapieralski">Oddaję panu głos, czyli panu Michałowi Nowakowskiemu, który przedstawi nam dzisiaj zagadnienie. Bardzo proszę.</u>
<u xml:id="u-1.6" who="#MichałNowakowski">Za chwilkę opowiem troszeczkę więcej o Polskim Towarzystwie Informatycznym, a dokładnie o sekcji, która odpowiada za przygotowanie naszego dzisiejszego posiedzenia, a przynajmniej w tej części wstępnej merytorycznej. Jest to zagadnienie, które zyskuje na znaczeniu i zyskuje też na popularności, natomiast jeszcze niestety w wielu miejscach jest ignorowane, a jednak jest bardzo istotne z punktu widzenia państwa, obywateli, ale też i biznesu, ponieważ to jest zagadnienie bardzo interdyscyplinarne i dotykające bardzo wielu interesariuszy.</u>
<u xml:id="u-1.7" who="#MichałNowakowski">To, o czym będziemy chcieli dzisiaj opowiedzieć, to są aspekty niecompliance’owe, czyli niezwiązane ze stosowaniem przepisów czy też konkretnych regulacji w kontekście tworzenia, projektowania, rozwijania, wdrażania, ale też użytkowania systemu sztucznej inteligencji. Jest to wątek, który był dość mocno eksponowany również w trakcie prac legislacyjnych nad aktem, nad rozporządzeniem w sprawie sztucznej inteligencji. Nawet w pewnym momencie w jednym z przepisów, bodajże w art. 4a, pojawił się wymóg, żeby wszystkie systemy sztucznej inteligencji, poddane AI Actowi, również spełniały dodatkowo wymóg w zakresie tzw. trustworthy AI, czyli sztucznej inteligencji godnej zaufania. Oczywiście w trakcie prac legislacyjnych słusznie zauważono, że aspekty etyczne nie powinny być w twardych przepisach prawa, ale o tym też więcej opowiemy merytorycznie za chwilkę.</u>
<u xml:id="u-1.8" who="#MichałNowakowski">My jesteśmy Sekcją Aktualnych Wyzwań Sztucznej Inteligencji, która jest częścią Polskiego Towarzystwa Informatycznego. Jesteśmy ludźmi o bardzo zróżnicowanym – przepraszam za użycie takiego określenia – backgroundzie. Ze mną jest profesor Biecek, który jest profesorem informatykiem. Jest ze mną Wojciech Bednaruk, który jest edukatorem w zakresie etyki nowych technologii, nie tylko sztucznej inteligencji. Jestem ja, z zawodu jestem prawnikiem, ale w naszym zarządzie jest również pani profesor Maria Ganzha, która jest profesorem matematyki.</u>
<u xml:id="u-1.9" who="#MichałNowakowski">Staramy się uwzględniać bardzo zróżnicowane poglądy, zróżnicowane podejścia, tak aby rzeczywiście aspekty były reprezentowane w odpowiedni sposób, ponieważ one są rzeczywiście bardzo interdyscyplinarne. Właśnie jedną z naszych misji, którą przyjęliśmy w momencie, kiedy postanowiliśmy założyć naszą sekcję, jest promowanie etycznego podejścia do sztucznej inteligencji. Przy czym ze względu na to, że jednak spora część z nas jest osobami o technicznym backgroundzie – przepraszam, brakuje mi słowa, jeśli chodzi o ten „background” – o technicznych kompetencjach, wiedzy i doświadczeniu, to podchodzimy do tego bardzo praktycznie, to znaczy patrzymy na etykę z perspektywy jej operacjonalizacji, czyli tak naprawdę możliwości zweryfikowania, czy proces związany z tworzeniem, wdrażaniem i użytkowaniem tego typu rozwiązań rzeczywiście jest realizowany w duchu określonych zasad, które oczywiście każda organizacja będzie u siebie wprowadzała, bazując na pewnych wartościach, które wyznaje.</u>
<u xml:id="u-1.10" who="#MichałNowakowski">To tyle tytułem wstępu. Ja jeszcze wrócę do państwa w momencie, kiedy będziemy rozmawiali o samych rekomendacjach. A teraz oddaję głos Wojtkowi z prośbą o przedstawienie status quo i też tego, gdzie chcielibyśmy, żeby znalazła się etyka AI.</u>
<u xml:id="u-1.11" who="#WojciechBednaruk">Chciałbym w takim razie podzielić się z państwem naszymi wspólnymi przemyśleniami w ramach naszej sekcji, dotyczącymi tego, czym tak naprawdę jest etyka sztucznej inteligencji, ponieważ ten termin krąży i jest coraz bardziej popularny, ale oczywiście istotna jest definicja. My promujemy zrozumienie etyki sztucznej inteligencji raczej jako proces, jako coś dynamicznego, w przeciwieństwie do zestawu zasad, które obowiązują w każdych okolicznościach. Chcemy podkreślić, że etyka sztucznej inteligencji jest dynamiczna, jest relacyjna, jest kontekstowa i wymaga ciągłego zastanawiania się, ciągłego wyważenia zasad, bo czasami jedna zasada działa w jednym kontekście, inna zasada działa w innym kontekście, a ogólnym celem, który chcielibyśmy osiągnąć, jest oczywiście dobrostan społeczny.</u>
<u xml:id="u-1.12" who="#WojciechBednaruk">Oczywiście pojęcie nie jest proste do zdefiniowania, ale chyba rozumiemy, o co nam chodzi. Chcielibyśmy przede wszystkim popularyzować świadomość tego, że źle zaprojektowane i wdrożone systemy sztucznej inteligencji mogą spowodować bardzo wiele szkód, a z racji tego, że wszyscy rozumiemy, że jest to potężna technologia, dobrze zaprojektowane, dobrze wdrożone systemy mogą zwiększyć ten dobrostan.</u>
<u xml:id="u-1.13" who="#WojciechBednaruk">Co to znaczy „dobrze wdrożone i z konsekwencjami zwiększenia dobrostanu”? Chciałbym zwrócić uwagę na multidyscyplinarność, która powinna odzwierciedlać całą infrastrukturę, cały ekosystem, w którym systemy sztucznej inteligencji są wdrażane, ze szczególnym uwzględnieniem prawników, inżynierów i etyków. W tym momencie, jeśli chodzi o multidyscyplinarność, my rozumiemy etykę nawet szerzej, myśląc też o socjologii, o kulturoznawstwie, o obszarach, których etyka dotyka w jakiś sposób, w szerokim pojęciu – oczywiście wszystko funkcjonujące w obrębie pewnych norm standardyzacyjnych.</u>
<u xml:id="u-1.14" who="#WojciechBednaruk">Chcielibyśmy podkreślić, że multidyscyplinarność, czyli wyważenie tych podejść, powoduje, że zwiększamy możliwości kompleksowego zrozumienia, z czym mamy do czynienia, bo mamy większą możliwość identyfikacji ukrytych zagrożeń i w konsekwencji przybliżenie się do bardziej zrównoważonych rozwiązań, a na końcu do zwiększenia uprawomocnienia, legitymizacji tych systemów i budowania zaufania wokół nich. Oczywiście nie jesteśmy uprawnieni do tego, żeby wymyślić wszystko od zera, jest bardzo dużo pracy, bardzo mądrych ludzi i dobrych organizacji, które pozwalają na to, żeby oprzeć się na istniejących ramach etycznych, które pozwalają na to, żeby uwspólnić język, uwspólnić sposób myślenia, zwiększyć świadomość i prowadzić do operacjonalizacji – bardzo długie słowo, ale absolutnie fundamentalne.</u>
<u xml:id="u-1.15" who="#WojciechBednaruk">Zrobiliśmy mały przegląd. Zdajemy sobie sprawę, że frameworków, ram etycznych powstaje bardzo dużo – Unia Europejska, OECD i organizacje branżowe produkują takie dokumenty. Gdzieś ktoś obliczył, że jest ponad 200 takich dokumentów, z tym że taka metaanaliza prowadzi do tego, że w sumie można sprowadzić ramy etyczne do około 20 zasad etycznych, które w różny sposób są nazwane, w różny sposób priorytetyzowane, ale generalnie na samym końcu chodzi o dobro społeczne.</u>
<u xml:id="u-1.16" who="#WojciechBednaruk">Chcielibyśmy oprzeć się na wybranej ramie etycznej, przygotowanej przez grupę ekspertów wysokiego ryzyka dla sztucznej inteligencji o bardzo długim, biurokratycznym tytule „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”. Bardzo dobry dokument, który jest ściśle połączony z AI Actem, ponieważ jest tutaj pewna logiczna ciągłość między dokumentem, który powstał w 2018 r., 2019 r. – wśród twórców byli przedstawiciele Polski. Wydaje nam się, że wybranie tego dokumentu, tego podejścia jest zgodne z multidyscyplinarnym podejściem, które łączy podejście prawne, techniczne i etyczne.</u>
<u xml:id="u-1.17" who="#WojciechBednaruk">No tak, tylko jest problem z tym jak pojęcia etyczne, a niektóre oczywiście sięgają wstecz 2,5 tys. lat, takie jak na przykład przewodnia i nadzorcza rola człowieka, wprojektować w system sztucznej inteligencji? To jest jeden z problemów operacjonalizacji, co to właściwie znaczy, jeśli chodzi o proces projektowy, co to znaczy, jeśli chodzi o ocenę funkcjonowania wdrożonego systemu. Te zasady siłą rzeczy są w jakimś stopniu abstrakcyjne, wymagają interpretacji. Ten proces wydaje nam się bardzo istotny z punktu widzenia propozycji multidyscyplinarności, ponieważ nie można tych zasad interpretować tylko z punktu widzenia technicznego, tylko z punktu widzenia prawnego, tylko z punktu widzenia etycznego, bo system końcowy pójdzie nie w tę stronę.</u>
<u xml:id="u-1.18" who="#WojciechBednaruk">Chciałbym podzielić się z państwem i uszczegółowić – na następnym slajdzie – w jaki sposób chcielibyśmy spróbować operacjonalizować, czyli skonkretyzować, przenieść abstrakcyjną zasadę na konkretne rozwiązanie techniczne. Ten slajd opisuje pewien logiczny sposób myślenia o tym, w jaki sposób przejść między pierwszym pomysłem na technologię, która jest wynikiem wyobraźni. My, jako gatunek ludzki, zawsze operowaliśmy, funkcjonujemy w obrębie technologii. Zawsze chcieliśmy coś zrobić nowego, ułatwić sobie życie. Ta wyobraźnia kieruje naszym wyobrażeniem, co można by było zrobić. I oczywiście ta wyobraźnia wchodzi w proces projektowania, czyli przenoszenia wiedzy o świecie i wiedzy o problemach, które chcemy rozwiązać, na jakieś bardziej konkretne rozwiązanie.</u>
<u xml:id="u-1.19" who="#WojciechBednaruk">I tutaj pojawia się fundamentalny aspekt etyczny, ponieważ każdy proces projektowania polega na pewnych wyborach rozwiązań. Wybór jest znowu pojęciem fundamentalnie etycznym. Jeżeli nie mamy wyboru, nie ma etyki tak naprawdę. Spośród możliwości projektowania podejścia do różnych możliwości, różnych opcji projektowania, wybory są odzwierciedleniem wartości, wartości zespołu projektowego czy wartości na przykład zbadanej grupy docelowej. Chcielibyśmy, żeby technologie sztucznej inteligencji były wynikiem wyborów, ale opartych na analizie grupy docelowej, analizie samych projektantów, wartości projektantów. Chcielibyśmy promować podejście projektowania opartego na wartościach, dlatego że wydaje nam się, że pominięcie wartości, czyli tego, co jest dla nas ważne w życiu, dla wszystkich interesariuszy, byłoby nieetyczne. Oczywiście w środowisku biznesowym zysk jest istotną wartością, ale nie jest jedyną, nie możemy tak tego traktować.</u>
<u xml:id="u-1.20" who="#WojciechBednaruk">Chciałbym jeszcze pokrótce pokazać i skonkretyzować moją wcześniejszą wypowiedź, jeśli chodzi o konkretny scenariusz projektowania i wdrażania systemu sztucznej inteligencji, który na przykład polega na tym, że władze przykładowego miasta wdrażają system sztucznej inteligencji do przewidywania poziomu przestępczości, zaprojektowany w celu prognozowania częstotliwości przestępstw i efektywniejszego przydzielania zasobów policyjnych.</u>
<u xml:id="u-1.21" who="#WojciechBednaruk">No i teraz w ramach interdyscyplinarnego podejścia chcielibyśmy znowu wybalansować rozumienie tego scenariusza z punktu widzenia prawnego i z punktu widzenia technicznego. Każdy ten obszar, jeżeli nie zostanie poprowadzony, przeprowadzony w porządny sposób, może prowadzić do końcowego efektu, który będzie źle wdrożonym, źle zaprojektowanym systemem sztucznej inteligencji, czyli na przykład z punktu widzenia perspektywy technicznej możemy mieć bardzo dużo wytrenowanych stronniczych historycznie danych o przestępczości, co prowadzi do niedokładnych i wypaczonych prognoz; możemy mieć niedokładne testowanie, niedokładne walidacje, możemy mieć wady metodologiczne, takie jak przeuczenie. To są obszary technologiczne, które w obszarze perspektywy technicznej mogą prowadzić do wadliwego modelu.</u>
<u xml:id="u-1.22" who="#WojciechBednaruk">W perspektywie prawnej możemy spowodować, że naruszamy dane osobowe, że naruszymy przepisy dotyczące ochrony prywatności. Jest bardzo duże spektrum możliwych wad procesu, kiedy na przykład nie doceniamy danych historycznych, które stygmatyzują mniejszości, i cały ten system prowadzi do pewnych uprzedzeń. Oczywiście każdy ten obszar, każda perspektywa ma swoje możliwości przeciwdziałania problemom, czyli z punktu widzenia perspektywy technicznej – zbieranie danych z różnych źródeł, z różnych okresów, żeby zapewnić ich różnorodność. Z perspektywy prawnej mamy możliwość zbierania danych osobowych tylko i wyłącznie na potrzeby danego systemu, anonimizacja. Jest bardzo dużo technik, żeby wybalansować te perspektywy.</u>
<u xml:id="u-1.23" who="#WojciechBednaruk">Z perspektywy wartości, jak mówiłem wcześniej, jeżeli projekt sztucznej inteligencji nie bierze pod uwagę wartości wszystkich interesariuszy… A generalnie rzecz biorąc w projektach technologicznych sztucznej inteligencji robi się na przykład mapę grupy docelowej: kto, jak w jaki sposób może oddziaływać na sukces danego projektu. Ale na przykład w ograniczonym zakresie bada się wartości pośredniej grupy docelowej, takiej, która nie jest bezpośrednio związana z działaniami, efektami systemu, ale pośrednio. Nie bada się na przykład jakiegoś wpływu na wartości grupy docelowej, na którą system wpłynie dopiero za jakiś czas.</u>
<u xml:id="u-1.24" who="#WojciechBednaruk">Tych możliwości metodologicznych, żeby te wartości wprowadzić, jest dosyć dużo, tylko nie jest to jeszcze na tyle wdrożone, żeby można było ustanowić jakiś schemat metodologiczny, który pozwoli na to, żeby te wartości i przeniesienie, interpretacja zasad etycznych na konkretne rozwiązania technologiczne, które można później sprawdzić, jakoś się ustabilizowały.</u>
<u xml:id="u-1.25" who="#MichałNowakowski">Chciałbym jeszcze zwrócić uwagę na jedną, właściwie na dwie bardzo istotne kwestie. Po pierwsze, etyka to nie jest compliance. To nie jest kwestia zgodności z przepisami prawa, ale też jest bardzo duża zależność. Czasem jest tak, że przepisy prawa dozwalają nam na przykład na wykorzystanie jakichś danych wrażliwych, bo na przykład uzyskaliśmy zgodę podmiotu danych, ale z etycznego punktu widzenia wykorzystanie tych danych jest co najmniej wątpliwe. Jeżeli nie mamy tak naprawdę pewnego kompasu, który nam wskazuje, jak powinniśmy postępować w określonych sytuacjach, to trudno potem rozliczać i wymagać, żeby kwestie etyczne były uwzględnione na przykład w procesie projektowania, rozwijania, wdrażania czy też stosowania systemów sztucznej inteligencji.</u>
<u xml:id="u-1.26" who="#MichałNowakowski">Druga kwestia, która jest bardzo istotna i na którą również w sferze biznesowej – to jest akurat dosyć istotna kwestia – zwracają uwagę twórcy tego typu rozwiązań, ale też podmioty, które je wdrażają, to jest to, o czym mówiliśmy wcześniej, to znaczy kwestia przełożenia etyki na pewne wymogi funkcjonalne, to znaczy na wymogi, które są realne do wdrożenia w kontekście bądź co bądź oprogramowania. Systemy sztucznej inteligencji to nie jest… Nie rozmawiamy tutaj o kwestii jakichś autonomicznych rozwiązań, bo myślę, że nie jesteśmy na tym etapie i pytanie, czy kiedykolwiek będziemy, natomiast mówimy jednak o jakiejś formie oprogramowania z pewnymi cechami autonomicznymi, które trzeba tak naprawdę opracować, pewien standard w zakresie rozwijania tego typu rozwiązań. Akurat to jest bardzo duże wyzwanie.</u>
<u xml:id="u-1.27" who="#MichałNowakowski">Jak przegląda się literaturę czy też na przykład różne standardy organizacyjne, to w wielu miejscach pojawia się informacja: tak, potrzebujemy bardzo konkretnych wymogów funkcjonalnych dla oprogramowania, tak, potrzebujemy mierników. Ale odpowiedzi na to, w jaki sposób to zrobić, bardzo często już po prostu zwyczajnie nie ma. Dlatego zwracamy na to uwagę, my to widzimy, dostrzegamy i szukamy tak naprawdę jakiegoś sensownego rozwiązania.</u>
<u xml:id="u-1.28" who="#MichałNowakowski">Ale przeanalizowaliśmy potrzeby i możliwości w zakresie tworzenia takiego swoistego ekosystemu etycznej sztucznej inteligencji. Ja nie będę ukrywał, że w tym wszystkim najważniejsi są tak naprawdę ludzie. Rozmawiamy o kwestii moralności, o kwestii etyki, o kwestiach wartości – bez aktywnego udziału społeczeństwa, bez aktywnego udziału ludzi, którzy tworzą, rozwijają, którzy wykorzystują określone rozwiązania, ale też bez udziału państwa, co jest bardzo istotne, to się po prostu zwyczajnie nie uda. My stworzyliśmy listę rekomendacji, natomiast mamy świadomość tego, że być może to nie jest lista pełna. To jest lista, która na pewno wymaga konkretyzacji na poziomie poszczególnych punktów, ale zwracamy uwagę na konieczność edukacji i szkoleń.</u>
<u xml:id="u-1.29" who="#MichałNowakowski">Jeżeli nie będziemy tak naprawdę uczyli ludzi, już na tym wczesnym etapie, że etyka nowych technologii – już niekoniecznie musimy się skupiać na kwestii samej sztucznej inteligencji – jest niezwykle istotna, to potem, tak jak wspomniałem wcześniej, trudno jest oczekiwać od ludzi, że będą to stosowali i że będziemy mogli ich rozliczać w jakiś sposób w tym zakresie. Ale to też jest kwestia edukacji na poziomie szkolnictwa wyższego. Przykładowo inżynierowie muszą mieć zajęcia z zakresu etyki nowych technologii, aby zrozumieli, że to nie jest tylko pewna koncepcja filozoficzna, tylko to są realne wymagania, które są do przełożenia na kod albo na dane, które są wykorzystywane w kontekście modeli sztucznej inteligencji.</u>
<u xml:id="u-1.30" who="#MichałNowakowski">Zresztą o te kwestie niektóre nasze uczelnie w Polsce dbają. Nie jest tutaj wyjątkiem na przykład Politechnika Warszawska. Potem jest kwestia warsztatów i seminariów. Oczywiście takowe trzeba realizować, tak samo jak to nasze dzisiejsze posiedzenie. Rady doradcze, czyli tworzenie rad ekspertów, ludzi, którzy naprawdę znają się na kwestii etyki sztucznej inteligencji, którzy mają kompetencje w tym zakresie, a nie twierdzą, że takie kompetencje posiadają… Takie rady doradcze mogą pomagać na przykład w tworzeniu polityk czy też ewentualnie przepisów dotyczących AI. Ja bym chciał zwrócić uwagę na jedną rzecz – że etyka, przynajmniej w kontekście sztucznej inteligencji, poprzedzała stworzenie twardych przepisów w postaci rozporządzenia w sprawie sztucznej inteligencji. I teraz w kontekście na przykład przepisów, które są tworzone obecnie w Ministerstwie Cyfryzacji, również jest potrzeba uwzględnienia kwestii etycznych, oczywiście w taki sposób, aby nie naruszyć podstawowych zasad.</u>
<u xml:id="u-1.31" who="#MichałNowakowski">Istnieje kwestia ocen etycznych albo audytów, czyli kwestia stworzenia pewnego być może frameworku, który pozwoli na dokonywanie oceny pod kątem zgodności z określonymi wartościami – oczywiście to jest kwestia dyskusyjna, jakie te wartości będą – oraz kwestia ewentualnej certyfikacji. Oczywiście nikt nie narzuci tworzenia czy wydawania certyfikatów w tym zakresie, ale na przykład w Stanach Zjednoczonych ten rynek zaczyna się rozwijać i jeżeli jest zrobiony w sposób przejrzysty i w sposób transparentny, to on ma sens. Zresztą, jak spojrzymy na AI Act, tam też pojawiają się kwestie związane z certyfikacją. Być może jest to jakiś punkt wyjścia.</u>
<u xml:id="u-1.32" who="#MichałNowakowski">Kolejny element, kolejna rekomendacja to jest promowanie otwartych standardów i przejrzystości procesów decyzyjnych AI, co ma szczególne znaczenie w kontekście na przykład organów administracji publicznej. Wydaje się, że w kontekście państwa konieczne jest też stworzenie pewnego kompasu, pewnych wskazówek, które pozwolą na lepsze – nie wiem, czy to jest dobre określenie, ale je przyjmijmy – wdrażanie tego typu rozwiązań, ale też ich projektowanie.</u>
<u xml:id="u-1.33" who="#MichałNowakowski">Jeśli chodzi o kwestię mechanizmów raportowania, to jest oczywiście i będzie w jakiś sposób adresowane na poziomie przepisów, ale generalnie kwestie związane ze zgłaszaniem pewnych obaw społeczeństwa w zakresie wykorzystywania pewnych systemów… Widzimy – nie będę tutaj mówił o konkretnych przypadkach – ale widzimy, że problem na przykład z kwestią ochrony prywatności czy ochroną danych osobowych w kontekście systemów sztucznej inteligencji jest realnym wyzwaniem z punktu widzenia organów, ale też z punktu widzenia samych podmiotów danych, tego nie ma co ignorować.</u>
<u xml:id="u-1.34" who="#MichałNowakowski">Zresztą dosłownie, nie wiem, 8–9 dni temu europejski inspektor ochrony danych wydał kolejne wytyczne w zakresie generatywnej AI i przepisów o ochronie danych osobowych kierowanych przede wszystkim do instytucji publicznych.</u>
<u xml:id="u-1.35" who="#MichałNowakowski">Tutaj dochodzimy do kolejnego ważnego elementu, to jest kwestii partnerstwa publiczno-prywatnego. Mamy na myśli oczywiście też NGOsy, które powinny aktywnie włączać się we wszystkie procesy w zakresie wdrażania, ale też rozwijania etycznych technologii AI. Być może NGOsy będą takimi watchdogami, które nie tylko będą patrzyły na kwestię zgodności z przepisami prawa, ale być może z kwestiami związanymi właśnie z etyką, co wydaje mi się, że częściowo jest już realizowane.</u>
<u xml:id="u-1.36" who="#MichałNowakowski">Poza tym jest kwestia stworzenia forum dialogu. Myślę, że takie fora już się pojawiają, na przykład w kontekście Ministerstwa Cyfryzacji, i takowe trzeba najzwyczajniej w świecie utrzymywać. Trzeba wprowadzić też jakiś mechanizm finansowania różnych badań. Dlaczego to jest istotne? Przykładowo, profesor Biecek jest bardzo aktywny w obszarze tzw. explainable AI, czyli wyjaśnialnej sztucznej inteligencji. Jest to jedno z kluczowych zagadnień o charakterze etycznym, ale też pewnie w jakimś stopniu i prawnym, czyli kwestia zapewnienia, że systemy, które są wykorzystywane, można odczytać i można zinterpretować na przykład w konkretne wyniki, to znaczy, w jaki sposób te systemy działają.</u>
<u xml:id="u-1.37" who="#MichałNowakowski">Do tego, żeby tworzyć tego typu rozwiązania, żeby one mogły być potem wykorzystywane w obszarze administracji publicznej czy prywatnej, konieczne jest zwiększenie poziomu finansowania badań oraz zwiększenie udziału nauki w tych procesach. W Stanach Zjednoczonych – przepraszam, że się uczepiłem, ale to jest dobry przykład – ośrodki akademickie mają bardzo duże znaczenie z punktu widzenia realizacji projektów AI i są tak naprawdę pionierami w zakresie różnych rozwiązań, także w zakresie etyki sztucznej inteligencji.</u>
<u xml:id="u-1.38" who="#MichałNowakowski">Wreszcie ostatnia rekomendacja do rozważenia. Nie przesądzamy jeszcze do końca, to jest przemyślenie, czy nie byłoby dobrze stworzyć jakichś wytycznych, być może jakichś rekomendacji, być może w jakiś sposób dozwolony – patrząc przez pryzmat tego, jak muszą być kształtowane przepisy – być może jakichś przepisów, które uwzględniają aspekty etyczne. Mamy oczywiście świadomość, że organy regulacyjne – nie mówię o organie, który powstanie w przyszłości, ale również o istniejących, jak na przykład Urząd Ochrony Danych – będą aktywne w tym zakresie w jakiś sposób, ale dobrze by było, aby te wszystkie kwestie były w odpowiedni sposób skoordynowane i uwzględniały interesy zróżnicowanego katalogu interesariuszy.</u>
<u xml:id="u-1.39" who="#MichałNowakowski">Mamy jeszcze taki przykład tego, jak można przeprowadzać edukację i szkolenia w zakresie metodologii i wrażliwości etycznej. Jest bardzo wiele ciekawych sposobów na to, jak to przedstawić i jak rzeczywiście budować postawy etyczne, jak rzeczywiście pokazywać, w jaki sposób przenieść etyczne…</u>
<u xml:id="u-1.40" who="#MichałNowakowski">To, na co chcielibyśmy jeszcze zwrócić uwagę, czy podkreślić kolejny raz, to jest kwestia interdyscyplinarności i otwartości, inkluzywności. To jest bardzo ważna kwestia. Trzeba angażować ludzi z różnych kręgów kulturowych, z różnymi doświadczeniami, z różnymi kompetencjami, aby można było je uwzględnić. Oczywiście mamy świadomość tego, że jest to też niezwykle trudne, bo uśrednianie zawsze powoduje, że jest to jakaś forma kompromisu. Inżynierowie dosyć często zwracają uwagę, że mają trudności na przykład ze zrealizowaniem zasady fair, pewnej sprawiedliwości w kontekście modeli czy samych danych, bo sprawiedliwość jest czymś bardzo subiektywnym. No ale gdzieś musimy znaleźć się po środku i znaleźć jakieś rozwiązanie.</u>
<u xml:id="u-1.41" who="#MichałNowakowski">Jeśli chodzi o kierunki dalszej pracy i współpracy, to prowadźmy dialog z legislatorami, z regulatorami, z biznesem, ze społeczeństwem, NGOsami, dzielmy się wiedzą w tym zakresie. Zastanówmy się, czy jest możliwość i konieczność podjęcia jakichś bardziej skonkretyzowanych działań, oczywiście szczególnie na poziomie edukacji, szkoleń oraz finansowania; promujmy po prostu kwestie związane z przejrzystością i odpowiedzialnością. Jako Polskie Towarzystwo Informatyczne również włączamy się w te kwestie na poziomie zarówno różnych konferencji czy eventów, które są organizowane, także dla biznesu, ponieważ wszyscy powinniśmy być zainteresowani realizacją tych postulatów. Dziękujemy bardzo.</u>
<u xml:id="u-1.42" who="#GrzegorzBernardNapieralski">Chciałem powiedzieć, że o tym, jak ważny jest ten temat, świadczy fakt, że niebawem odbędzie się na szczycie G7 specjalny panel dotyczący sztucznej inteligencji, a tak naprawdę etyki w sztucznej inteligencji. Doproszono na ten panel papieża Franciszka, ale my jesteśmy pierwsi z tą dyskusją w polskim parlamencie, za co panom bardzo dziękuję.</u>
<u xml:id="u-1.43" who="#GrzegorzBernardNapieralski">Nim otworzę dyskusję, poproszę pana ministra o kilka słów, bo pan minister ma swoje obowiązki, będzie musiał nas opuścić. Ale jeszcze raz dziękuję za obecność. Oddaję panu głos. Bardzo proszę.</u>
<u xml:id="u-1.44" who="#DariuszStanderski">Podzielam obserwacje prezentujących dzisiaj osób, że to jest zagadnienie o tyle trudne, że, tak jak było wspomniane, nawet w akcie o sztucznej inteligencji wskazano wprost, że rozwiązania dotyczące etyki nie powinny wprost przejawiać się w twardych przepisach czy to na poziomie unijnym, czy na poziomie krajowym. Widząc tę kwestię, którą musimy rozstrzygnąć również w Polsce, przystępujemy do prac nad wdrażaniem wytycznych, wdrażaniem rekomendacji, jeżeli chodzi o etykę sztucznej inteligencji, na poziomie administracji publicznej. Będziemy również w Polsce proponować wytyczne w zakresie wykorzystywania narzędzi opartych na modelach AI, żeby uzupełnić twarde przepisy, które pojawią się w ustawach wdrażających akt o sztucznej inteligencji. Musimy nie tylko wdrożyć przepisy, ale stworzyć cały ekosystem, który polega nie tylko na konkretnych artykułach, na zadaniach, obowiązkach, karach za nieprzestrzeganie, ale również na wytycznych, które nie tyle nakładają tylko nowe obowiązki, tylko wskazują, w którym kierunku iść – jeżeli na przykład dany urząd zastanawia się, jak wdrożyć narzędzia oparte na AI, czy jakaś firma dopiero tworzy swoją strategię wdrożenia.</u>
<u xml:id="u-1.45" who="#DariuszStanderski">Rozpoczęliśmy pracę w ministerstwie nad takimi rozwiązaniami. Będziemy pracować nad tym równolegle z niedługo już będącym w Dzienniku Urzędowym Unii Europejskiej AI Akcie. Będziemy to prezentować zarówno na grupach roboczych w ministerstwie, jak również, jeżeli będzie taka wola państwa posłów i posłanek, chętnie wrócimy z konkretami na posiedzenie Komisji, bo chciałbym, żeby ta dyskusja o sztucznej inteligencji godnej zaufania, którą rozpoczynamy dzisiaj, nie tylko była kontynuowana, ale była kontynuowana również przy okazji wykonywania kolejnych etapów, o których panowie mówili dzisiaj podczas prezentacji. Jeszcze raz bardzo serdecznie dziękuję.</u>
<u xml:id="u-1.46" who="#GrzegorzBernardNapieralski">Otwieram dyskusję. Bardzo proszę, czy ktoś z posłów chciałby zabrać głos? To w takim razie, proszę bardzo, pani Joanna. Zawsze na posterunku.</u>
<u xml:id="u-1.47" who="#JoannaKarczewska">Nazywam się Joanna Karczewska. Jestem absolwentką Wydziału Elektroniki Politechniki Warszawskiej. Zajmuję się cyberbezpieczeństwem, bezpieczeństwem informacji, ochroną danych osobowych. Jestem certyfikowanym audytorem systemów informatycznych oraz praktykującym inspektorem ochrony danych.</u>
<u xml:id="u-1.48" who="#JoannaKarczewska">Zacznę od przykładu. Dosłownie w sobotę dostałam SMS: „Wróżki jej nienawidzą. Sztuczna inteligencja widzi przyszłość ze 100-procentową skutecznością. Patrz, co się zdarzy w 2024 r. Wyślij SMS”. Sprawdziłam nawet firmę, która się produkuje, jakaś firma… A, nie będę komentować.</u>
<u xml:id="u-1.49" who="#JoannaKarczewska">I teraz tak. Jeżeli wskazana sztuczna inteligencja, zamiast wróżki, źle mi doradzi, to do kogo mam pójść? W świetle tego, co panowie powiedzieli, to przyjrzałam się wytycznym Unii Europejskiej i Komisji Europejskiej pod kątem odpowiedzialności. Ja bym od tego zaczęła naszą dyskusję. Bo tak, aspekty etyczne prezentowane tutaj to wypisz wymaluj można przyłożyć do CEPiK, który rano był omawiany. Tam wszystkie punkty by się przydały, żeby sprawdzić. Czy to jest sztuczna inteligencja, czy zwykłe systemy informatyczne – aspekty etyczne pojawiają się niezależnie od rodzaju technologii, natomiast idzie o odpowiedzialność. Tu jest wyraźnie powiedziane, że ma być wytworzony system zgłaszania negatywnych skutków: identyfikacja, ocena, zgłaszanie i minimalizowanie potencjalnych negatywnych skutków systemów informatycznych, sztucznej inteligencji. Są szczególnie istotne dla osób, na które skutki te mają bezpośredni lub pośredni wpływ. Ja bym nawet użyła mocniejszego słowa, czasami mówimy o szkodzie, a ja bym tu wręcz powiedziała o krzywdzie, bo – pan o tym wspomniał – może pojawić się wręcz krzywda. Ja akurat to ćwiczę.</u>
<u xml:id="u-1.50" who="#JoannaKarczewska">Jest też punkt dotyczący dochodzenia roszczeń. W przypadku wystąpienia niesprawiedliwych, niekorzystnych skutków należy przewidzieć dostępne mechanizmy zapewniające odpowiednią możliwość dochodzenia roszczeń. Możemy sobie naprawdę dużo o tym mówić, szkolić, edukować i co tam jeszcze, ale na koniec dnia to są kwestie szkody lub wręcz krzywdy, którą na koniec poniesie interesariusz, klient, petent, obywatel. Wręcz od tego należy wychodzić, bo cała reszta, wszystkie aspekty, które panowie omawiali – w porządku, ale mnie, jako osobę, którą to dotknęło, interesuje właśnie to, jak ja mogę dochodzić roszczenia.</u>
<u xml:id="u-1.51" who="#JoannaKarczewska">W takim razie przez analogie do RODO. RODO też chroni podstawowe prawa i wolności osób fizycznych, bo tutaj idzie o to samo. A co się stało? W ramach art. 6 jest ust. 1 lit. f, która wytworzyła furtkę dla prawników, wszyscy teraz powołują się na tzw. uzasadniony interes, tak? Prawnicy czytali RODO tylko pod kątem możliwości stworzenia furtki dla firm, nawet dla instytucji, żeby je ominąć. Tutaj może być to samo. W związku z tym zacznijmy analizę od końca.</u>
<u xml:id="u-1.52" who="#JoannaKarczewska">Tu jest kolejny przykład, materiał, który panu przekazałam, znaleziony przez panią profesor – niestety dzisiaj nie może być, bo wraca z Krakowa – dotyczący analizy wypowiedzi posłów i europosłów na posiedzeniach Komisji Cyfryzacji, autorstwa dwóch panów. I teraz kwestia etyczna: czy powinni byli poinformować? Oczywiście sprawozdania są w domenie publicznej, każdy może je pobrać, zrobić z nimi, co chce, ale jeżeli idzie publikacja w internecie i ludzie mogą to czytać, tam są wysnute pewne wnioski, chociażby z wypowiedzi pana przewodniczącego, to czy etyka nie nakazuje autorom wysłać tekst chociażby do pana przewodniczącego Napieralskiego, do pana posła Zandberga, który też jest wymieniony cztery razy? A jeżeli tego nie zrobili, to czy postąpili etycznie czy nie?</u>
<u xml:id="u-1.53" who="#JoannaKarczewska">Więc tak jak sami to przedstawiliście, etyka to jest naprawdę szerokie pojęcie, ale to jest bardzo dobry przykład – czy powinni byli poinformować, czy nie? Może na przykład pan przewodniczący nie zgadza się z ich wnioskami? Może być pole do dyskusji.</u>
<u xml:id="u-1.54" who="#JoannaKarczewska">Ja proponuję w każdym dyskursie o sztucznej inteligencji, szczególnie o aspektach etycznych, zacząć od końca: jaka krzywda może mnie spotkać? A później cała reszta. Dzisiaj rano usłyszałam, że na przykład krzywdę mają właściciele samochodów, które idą do kasacji. Nie, to nie była kasacja, tylko zajęcie przez komorników. Okazuje się, że tam można stracić naprawdę duże pieniądze przez to, że nie ma informacji w CEPiK. To też jest kwestia etyczna – prawna, ale etyczna też, tak? Ludzie są tam narażani na straty – mowa była o 40 tys. zł, 50 tys. zł. Dlatego proponuję zacząć od końca, od krzywdy, która może spotkać zainteresowanych, a później cofać się do edukacji i szkoleń. Dziękuję.</u>
<u xml:id="u-1.55" who="#MichałNowakowski">Chciałem powiedzieć, że oczywiście zgadzam się ze wszystkimi spostrzeżeniami. Myślę, że w naszym gronie wszyscy się zgadzamy. Oczywiście część z aspektów, na które została zwrócona uwaga, to są kwestie nie tyle etyczne, co związane raczej z przepisami prawa. Co do kwestii na przykład stworzenia odpowiednich mechanizmów zgłaszania roszczeń, potem dochodzenia tych roszczeń, to muszą temu towarzyszyć przepisy na przykład w zakresie odpowiedzialności za systemy sztucznej inteligencji. Takowe przepisy są tworzone na poziomie Unii Europejskiej. One będą wymagały oczywiście jeszcze implementacji na poziomie krajowym, bo mówimy tutaj o dyrektywach. Oczywiście czym innym jest system zgłaszania roszczeń reklamacyjnych w kontekście tych systemów.</u>
<u xml:id="u-1.56" who="#MichałNowakowski">Natomiast jeśli chodzi o kwestie związane z krzywdą i szkodą jako taką, to chciałbym zwrócić uwagę, że jeżeli sięgniemy na przykład do wspomnianych przez Wojciecha norm standaryzacyjnych, na przykład ISO 42001, to tam jest mowa o czymś takim jak AI impact assessment. One trochę zbliżone są w sposób pośredni do tego, co mamy w przepisach o ochronie danych osobowych, czyli kwestii oceny skutków dla ochrony danych, tzw. DPIA, ale skupiają się na kwestii potencjalnej szkody, którą dany system może wyrządzić. Tak samo jak ta sama norma ISO 42001 jest tylko normą standaryzacyjną, ona może być zastosowana, ale wcale niekoniecznie musi. To ona też zwraca uwagę na kwestie tego, że systemy powinny być tworzone w duchu, akurat w tym przypadku, trustworthy AI, czyli sztucznej inteligencji godnej zaufania. Właśnie jednym z tych elementów jest kwestia dokonywania oceny tego, jaka jest potencjalna szkoda.</u>
<u xml:id="u-1.57" who="#MichałNowakowski">Tylko ja bym chciał jeszcze na koniec zwrócić uwagę na jedną rzecz, jak ktoś będzie chciał postępować nieetycznie, to i tak będzie postępował nieetycznie. Mało tego, jeżeli nawet będą przepisy, to idę o zakład, że na przykład… Już nie będę mówił o konkretnych państwach, ale są państwa, które kompletnie nie respektują ani traktatów międzynarodowych, ani przepisów regionalnych, ani już tym bardziej kwestii etycznych, również w kontekście systemu sztucznej inteligencji.</u>
<u xml:id="u-1.58" who="#MichałNowakowski">Wczoraj ukazało się bardzo ciekawe podsumowanie dotyczące jednej z platform sprzedażowych, nie będę już mówił której, która stosuje praktyki manipulacyjne w kontekście systemów sztucznej inteligencji względem odbiorców. Etyka sztucznej inteligencji, już tak kończąc, może być tym etapem pośrednim, do momentu, kiedy będziemy mieli jakieś przepisy. Oczywiście samo uchwalenie przepisów to jest trochę za mało, ponieważ największym problemem jest kwestia egzekucji tych przepisów, egzekwowalności stosowania przepisów. Zawsze będziemy mieli problem, tym bardziej że sztuczna inteligencja jest, powiedziałbym, multijurysdykcyjna – nie wiem, czy to jest dobre określenie – poza granicami. O tak, może w ten sposób.</u>
<u xml:id="u-1.59" who="#GrzegorzBernardNapieralski">Pamiętam, była taka dyskusja pod koniec zeszłej kadencji, kiedy rozmawialiśmy o aplikacjach, algorytmach w aplikacjach – żeby nie wymieniać nazw firm – transportowych, czy etyczne, czy moralne jest to, że jak rozładuje nam się bateria do 5%, nagle skoczy nam cena za przejazd co najmniej o 100%. Chodziło o to, czy to jest etyczne czy nie.</u>
<u xml:id="u-1.60" who="#GrzegorzBernardNapieralski">Chcę powiedzieć tylko na tym przykładzie, że czeka nas bardzo trudna dyskusja, bo to, o czym mówił pan minister, my dzisiaj staramy się być – w ogóle jako państwo polskie, jako rząd, jako parlament – liderami, jeżeli chodzi o przygotowanie się do absorbcji czy przygotowanie do przepisów dotyczących sztucznej inteligencji, natomiast kwestia etyki, czy w ogóle moralności będzie bardzo trudna do ujęcia. Są przecież specjalne wydziały na uniwersytetach, które się tym zajmują, chyba nie do końca potrafią na wszystko odpowiedzieć bądź znaleźć receptę. To będzie bardzo duże wyzwanie dla nas wszystkich, jak to tak naprawdę spróbować zbudować. Bo z jednej strony przepisy prawne, ale one też wszystkiego, tak jak powiedział pan minister, wszystkiego nie wyczerpią. Nie da się wszystkiego zapisać, a szczególnie, jeżeli chodzi o normy etyczne czy moralne – one się różnią choćby od wyznawanej religii czy nawet pochodzenia.</u>
<u xml:id="u-1.61" who="#GrzegorzBernardNapieralski">Rozpoczynamy dzisiaj tę dyskusję. Ja bardzo się cieszę, bo ideą powołania podkomisji miało być to, że to jest miejsce do wymiany myśli, szukania różnych rozwiązań, pomagania. Taka ma być pomoc też dla ministerstwa, bo nam trochę łatwiej jest dzisiaj w tym jednym temacie pracować i dopraszać gości, bo ministerstwo ma tych ustaw i milion rzeczy do załatwienia – czasami współczuję panu ministrowi jego pracy – natomiast też chcieliśmy to zrobić. Mówię to dlatego, że myślę, że dzisiaj tylko zaczynamy tak bardzo ogólnie o tym mówić, natomiast szczególnie do tych waszych rekomendacji ja bym chciał, żebyśmy do takich szczegółowych rozwiązań wracali, szczególnie jeżeli chodzi o edukację. Bo kwestia dotycząca technologii, sztucznej inteligencji powinna znaleźć się też na poważnie w dyskusji dotyczącej naszej szkoły podstawowej i przygotowania młodych ludzi do tego, jak z tą technologią obcować.</u>
<u xml:id="u-1.62" who="#GrzegorzBernardNapieralski">Przecież dzisiaj jest tak, że młody człowiek ma telefon komórkowy, a po drugiej stronie telefonu komórkowego mamy rzeszę inżynierów, którzy są świetnie przygotowani, świetnie wykształceni, z dużym doświadczeniem i mają tylko jeden cel: zrobić wszystko, żeby młodego człowieka przyciągnąć do telefonu, bo na tym zarabia się pieniądze. Ja nie zabraniam zarabiać pieniędzy, żeby była jasność, po to się tworzy biznesy, natomiast trzeba zrobić wszystko, żeby chronić nas, żebyśmy umieli korzystać z technologii, kiedy jest nam potrzebna, umieli się obronić przed tym, żeby ona nas nie za bardzo przyciągała.</u>
<u xml:id="u-1.63" who="#GrzegorzBernardNapieralski">Chcemy rozrywki, proszę bardzo, korzystajmy, chcemy znaleźć wiedzę – musimy mieć dostęp do sprawdzonej, dobrej wiedzy i wiedzieć, jak tę dobrą wiedzę zdobywać. Tu jest potężna praca przed nami. A już złapać kwestię etyki, moralności – to naprawdę będzie nam bardzo, bardzo ciężko. Dlatego dziękuję wam za prezentację i za inicjatywę, bo powtórzę jeszcze raz, ta dyskusja rozpocznie się na szczycie G7 za dwa dni albo jutro – my prowadzimy ją w Sejmie już dziś, więc widać, jaki to jest poważny problem i jak ważka jest to kwestia. Myślę, że będziemy do tego wracali. Przepraszam, bo się rozgadałem. Jako przewodniczący nie powinienem.</u>
<u xml:id="u-1.64" who="#GrzegorzBernardNapieralski">Czy ktoś z państwa chciał? Bardzo proszę. Proszę się przedstawić.</u>
<u xml:id="u-1.65" who="#JacekKosiorek">Przyznaję, że ta dyskusja jest dla mnie dość ciekawa. A kierunek, który państwo obrali, zarówno pani Joanna, jak i pozostali, włącznie z panem przewodniczącym, moim zdaniem idzie w dobrym kierunku.</u>
<u xml:id="u-1.66" who="#JacekKosiorek">Chciałem tylko jedną rzecz dopowiedzieć, która też ma związek z inną komisją sejmową, na której miałem okazję być, która dotyczyła sztucznej inteligencji, w odniesieniu do leczenia pacjenta. I teraz też przychodzi mi do głowy, i to też mnie nurtuje, kto weźmie odpowiedzialność za to, że pacjent zmarł? Zakładam, że sztuczna inteligencja podjęła jakąś decyzję, czyli dobrała leki itd., a pacjent tego nie przeżył. Pytanie: Kto weźmie wtedy odpowiedzialność?</u>
<u xml:id="u-1.67" who="#JacekKosiorek">Przynajmniej w normalnym wydaniu lekarz ma jakąś odpowiedzialność za swoje czyny itd. Wiadomo, że teraz temat jest bardzo szeroki i nie omówię go w żaden sposób, nie zamierzam nawet, bo znacznie przekracza to moje kompetencje, natomiast wiadomo, że ta dyskusja jest podstawą do tego, żeby jakkolwiek pójść do przodu w tych tematach. Dzięki bardzo.</u>
<u xml:id="u-1.68" who="#GrzegorzBernardNapieralski">Ja chciałem tylko powiedzieć, że odbyliśmy już jedną z pierwszych dyskusji, bo na pewno jej nie zakończymy, dotyczącą systemu ochrony zdrowia, sztucznej inteligencji, jak jej używać. Akurat w zeszłej kadencji nawiązaliśmy współpracę z Akademią Leona Koźmińskiego i z panią profesor Kolasą, która przeprowadziła badania wśród lekarzy oraz wśród Polek i Polaków, dotyczące ich obaw w kontekście użycia sztucznej inteligencji, w ogóle ich spojrzenia na to.</u>
<u xml:id="u-1.69" who="#GrzegorzBernardNapieralski">Ta dyskusja toczy się nie tylko w Polsce, toczy się, tak jak powiedział pan Michał, w Stanach Zjednoczonych. Jeden z kongresmenów bardzo mocno jest zaangażowany w temat dotyczący systemów ochrony zdrowia w sztucznej inteligencji, więc myślę, że dobrym elementem będzie, jak my będziemy też mogli podejrzeć, co się dzieje w innych krajach, po prostu zobaczyć, jak tam pracują, co się dzieje w Stanach etc. Bardzo mocno pracują Hiszpanie nad różnymi przepisami dotyczącymi etyki. Oni w Europie są pionierami, jeżeli chodzi o różne rozwiązania.</u>
<u xml:id="u-1.70" who="#GrzegorzBernardNapieralski">Myślę, że dla nas to też jest taka droga, przecież nie ma co się wstydzić. Jeżeli ktoś ma dobre pomysły, ma dobre rozwiązania prawne, ma dobre rozwiązania organizacyjne, można takie rzeczy sprawdzić. Natomiast myślę, że dzisiaj kreuje się – jeżeli powiem coś źle, to mam nadzieję, że pan minister mnie poprawi – taką jakby doktrynę, jeżeli chodzi o sztuczną inteligencję, że na końcu zawsze będzie człowiek.</u>
<u xml:id="u-1.71" who="#GrzegorzBernardNapieralski">Ja pamiętam wypowiedź, to było jeszcze za prezydentury Obamy – była taka duża konferencja w Dolinie Krzemowej w Stanach Zjednoczonych. Sekretarz obrony nie mówił wprawdzie o sztucznej inteligencji, bo to sformułowanie nie było jeszcze tak popularne, ale mówił o komercyjnych algorytmach – porównał te algorytmy czy ich możliwości do broni jądrowej. Powiedział, że tak jak nad bronią jądrową człowiek ma ten ostatni przycisk, to on decyduje, czy rakieta wystartuje czy nie, tak samo w ostateczności, jeżeli chodzi o algorytmy cyfrowe – dziś chodzi o sztuczną inteligencję – to też człowiek powinien mieć ten ostatni przycisk, ostatnią decyzję. Myślę, że tak naprawdę w tym kierunku będziemy procedowali. Ale tak naprawdę ta cała dyskusja jeszcze przed nami.</u>
<u xml:id="u-1.72" who="#GrzegorzBernardNapieralski">Bardzo proszę, panie Michale.</u>
<u xml:id="u-1.73" who="#MichałNowakowski">Nawet jeżeli spojrzymy na rozporządzenie w sprawie sztucznej inteligencji, co do zasady, bo tam są pewne wyłączenia, rozporządzenie nie znajduje zastosowania właśnie dla obszaru, nazwijmy go, militarnego czy wojskowego. Z drugiej strony gdzieś tam są tworzone przepisy na poziomie jakichś traktatów międzynarodowych, ale moim zdaniem – myślę, że koledzy zgodzą się ze mną – w tym wypadku kwestia etycznego podejścia do wykorzystania sztucznej inteligencji w obszarze wojskowym będzie kluczowa. Bo nie wszystko będzie regulowane tak naprawdę przepisami międzynarodowymi, a już na pewno nie będzie regulowane przepisami krajowymi czy regionalnymi, oczywiście z różnych względów. Tak że to jest też kwestia, którą na pewno trzeba uwzględniać.</u>
<u xml:id="u-1.74" who="#GrzegorzBernardNapieralski">Czy ktoś z państwa chciałby jeszcze zabrać głos? Nie widzę. Bardzo dziękuję.</u>
<u xml:id="u-1.75" who="#GrzegorzBernardNapieralski">Jeszcze raz chciałem bardzo serdecznie podziękować całemu zespołowi. Od razu zapowiadam, że chcielibyśmy wrócić w tych konkretnych sprawach, zrobilibyśmy takie posiedzenie już na spokojnie – w czasie wakacji czy zaraz po wakacjach. Zobaczymy też, co przyniosą prace w ministerstwie, tak żeby być w miarę w tym samym procesie i pomagać panu ministrowi w tej kwestii. Myślę, że taka jest też nasza, podkomisji… I też od razu mówimy, że podjęliśmy w naszym gronie decyzję, że też chcemy się uczyć. My nie mamy ani takiej wiedzy, ani takiego przygotowania, natomiast chcemy spojrzeć na rozwiązania w innych krajach, chcemy się im przyjrzeć, porozmawiać z naszymi odpowiednikami, jeżeli można tak to nazwać. Chodzi o to, żeby to prawo, które będziemy tworzyć, było po prostu jak najlepiej skrojone i jak najbardziej nowoczesne.</u>
<u xml:id="u-1.76" who="#GrzegorzBernardNapieralski">Skoro nie ma już głosów w dyskusji, bardzo państwu dziękuję. Na tym wyczerpaliśmy porządek obrad naszej podkomisji. Życzę wszystkiego dobrego i do zobaczenia. Zamykam posiedzenie.</u>
</div>
</body>
</text>
</TEI>
</teiCorpus>