text_structure.xml
95.1 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
<xi:include href="PPC_header.xml" />
<TEI>
<xi:include href="header.xml" />
<text>
<body>
<div xml:id="div-1">
<u xml:id="u-1.0" who="#BartłomiejPejo">Otwieram wyjazdowe posiedzenie Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii.</u>
<u xml:id="u-1.1" who="#BartłomiejPejo">Witam panów posłów. Witam bardzo serdecznie pana profesora Jana Kaźmierczaka, dziekana Wydziału Organizacji i Zarządzania Politechniki Śląskiej, który podobnie jak wczoraj… Brawa, panie profesorze. Pan profesor, podobnie jak wczoraj podczas obrad Komisji, gości naszą Komisję, za co raz jeszcze serdecznie dziękuję. Witam także naszych dzisiejszych prelegentów, pana doktora Jana Kozaka, profesora Uniwersytetu Ekonomicznego w Katowicach, witamy serdecznie. Witam pana doktora Marka Sikorę, profesora Politechniki Śląskiej, witamy serdecznie. Również serdecznie witam pana doktora Jakuba Nalepę, profesora Politechniki Śląskiej, witamy. Witam również pana doktora Krzysztofa Wodarskiego, profesora Politechniki Śląskiej, witamy serdecznie. Witam również panią doktor Idę Skubis z Politechniki Śląskiej, witamy serdecznie. Witam grono studentów. Witam wszystkich państwa biorących udział w dzisiejszych obradach Komisji. Podobnie jak wczoraj, nasze obrady zgromadziły liczną grupę osób zainteresowanych tematyką głównie sztucznej inteligencji, którą dzisiaj będziemy poruszać.</u>
<u xml:id="u-1.2" who="#BartłomiejPejo">Szanowni państwo, porządek dzisiejszego posiedzenia przewiduje dyskusję na temat pozytywnych i negatywnych aspektów wykorzystania narzędzi sztucznej inteligencji na przykładzie środowiska uczelni wyższych. Punktem wyjścia do debaty będą referaty wygłoszone przez wspomnianych przeze mnie, przywitanych państwa prelegentów.</u>
<u xml:id="u-1.3" who="#BartłomiejPejo">Czy są uwagi do porządku dziennego? Pytanie to kieruję do panów posłów. Nie widzę, nie słyszę. Wobec niezgłoszenia uwag do porządku dziennego stwierdzam jego przyjęcie.</u>
<u xml:id="u-1.4" who="#BartłomiejPejo">Drodzy państwo, przechodzimy do realizacji porządku dziennego. Za chwilę prelegenci wygłoszą swoje referaty i po referatach oczywiście będzie czas na dyskusję. Proszę sobie notować pytania. Pytania i państwa spostrzeżenia będą możliwe do przedstawienia w ostatniej części spotkania naszej Komisji.</u>
<u xml:id="u-1.5" who="#BartłomiejPejo">Proszę o zabranie głosu profesora Uniwersytetu Ekonomicznego w Katowicach pana Jana Kozaka. Tematem wystąpienia pana profesora będzie sztuczna inteligencja i konsorcjum śląskich uczelni – Śląskie Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych. Bardzo proszę, panie profesorze.</u>
<u xml:id="u-1.6" who="#BartłomiejPejo">Państwo pozwolicie, że my się przesiądziemy, aby móc również oglądać prezentację pana profesora.</u>
<u xml:id="u-1.7" who="#JanKozak">Ograniczony czas, dlaczego? Bo po pierwsze, muszę się pochwalić tym, co już na Śląsku robimy w temacie sztucznej inteligencji, w temacie cyberbezpieczeństwa. Poza tym będę chciał wprowadzić państwa nieco w tematykę sztucznej inteligencji, tak żebyśmy ją rozumieli. Za chwilkę będą prezentacje bardziej myślę złożone i chciałbym, żebyśmy wszyscy mieli wtedy pogląd co się dzieje.</u>
<u xml:id="u-1.8" who="#JanKozak">W zasadzie przed chwilką na agendzie przedstawiłem cel mojego wystąpienia. Po pierwsze, mówimy o sztucznej inteligencji, po drugie, albo w zasadzie odwrotnie – po pierwsze, będziemy sobie opowiadać o naszym śląskim centrum. Śląskie Centrum Inżynierii Prawa, Technologii i Kompetencji, to jest CYBER SCIENCE konsorcjum trzech uczelni – Politechnika Śląska, Uniwersytet Ekonomiczny w Katowicach i Uniwersytet Śląski w Katowicach, w pewnej współpracy z NASK-iem, stąd tam jeszcze pojawia się na dole NASK. Oprócz tego, już myślę niebawem, bo w planach mamy za jakiś tydzień podpisanie porozumienia, również Łukasiewicz – EMAG. W ramach naszego konsorcjum skupiamy jednostki o różnych kompetencjach, czyli prawo, jak państwo widzicie na górze, za które odpowiada przede wszystkim Uniwersytet Śląski, po lewej stronie mamy sztuczną inteligencję, czyli to po co się dzisiaj tutaj spotykamy i tutaj, mój Uniwersytet Ekonomiczny w Katowicach oraz oczywiście Politechnika Śląska i cyberbezpieczeństwo – tu przede wszystkim Politechnika Śląska w postaci naszego znanego wszystkim Adriana Kawczyńskiego, nie tylko oczywiście, ale myślę, że jest wiodącą osobą pod tym względem, Paweł Kasprowski również z Politechniki Śląskiej, to jako sztuczna inteligencja rozumiem bardziej i Łukasiewicz – EMAG już niebawem również włączy się w kwestię cyberbezpieczeństwa.</u>
<u xml:id="u-1.9" who="#JanKozak">Proszę zwrócić uwagę, mamy tutaj trzy bardzo ważne aspekty. Patrzyłem na wcześniejsze posiedzenia Komisji i widziałem, że były tam również rozmowy o cyberbezpieczeństwie, jest też specjalna podkomisja związana ze sztuczną inteligencją. Były spotkania poświęcone prawu, pojawił się AI Act z tego, co zauważyłem. Proszę zauważyć – wszystkie aspekty, które państwo w podkomisji macie, łączą się w naszym konsorcjum. Chciałbym w pewnym sensie tym się pochwalić. Wydaje mi się, że nasze kompetencje być może będą w przyszłości pomocne również państwa Komisji, ponieważ nasz CYBER SCIENCE ma już 2 latka, 2 latka z malutkim haczykiem i możemy się w ciągu tych 2 lat pochwalić konferencją „AI Challenger”, która odbywa się zresztą jutro, mamy kolejną edycję „AI Challenger”. Wiem, że niektórzy z państwa Komisji również pojawią się tam w roli prelegentów. Mieliśmy już dwie sesje specjalne na dużej międzynarodowej konferencji poświęconej sztucznej inteligencji. Aplikujemy o projekty badawcze, prowadzimy dwa kierunki studiów podyplomowych w ramach CYBER SCIENCE. Bardzo ważna kwestia, we współpracy z MASK-iem szkolenia z cyberhigieny. Dzisiaj wszyscy państwo wiecie, że to jest ekstremalnie ważne, bo co chwilkę mamy jakieś sytuacje, przejęcia konta, to wcale nie jest mniej ważne, aniżeli włamanie się na jakiś serwer, bo czasami łatwiej jest przejąć czyjeś konto i namieszać tak, jak kilka dni temu zresztą mieliśmy, stąd szkolenia cyberhigieny u wszystkich naszych studentów i studentek na wszystkich trzech uczelniach. Przeszkoliliśmy już kilkanaście, może nawet kilkadziesiąt tysięcy osób w zakresie cyberhigieny. Szeroka działalność popularyzacyjna, niezliczona liczba konferencji czy prezentacji, na których bywamy.</u>
<u xml:id="u-1.10" who="#JanKozak">Teraz troszeczkę o mnie i za chwilkę o sztucznej inteligencji. To jest taki slajd, miałem go usunąć, ale zapomniałem, nie szkodzi, który prezentuje pewien serial. Państwo kojarzycie? Informatycy może? Z tyłu kiwają, że tak. Widziałem, że w podkomisji znajduje się kilku informatyków. To jest „IT Crowd”, serial dosyć stary, ale świetny, doskonały serial moim zdaniem, moje córki go uwielbiają, jedna ma 15, druga 17 lat, więc już taki wiek, ale one są podobne do mnie, więc niestety albo stety, nie wiem, więc uwielbiają ten serial i kiedyś się mnie zapytały, jak jeszcze były małe „Tata, czy wy tak wyglądacie w pracy?”. Mówię „Nie, no coś ty, my tak nie wyglądamy. Tak wyglądamy”. A później znalazłem moje zdjęcie ze studiów i mówię „Kurczę, w sumie to chyba tak trochę wyglądamy”, a w zasadzie to one znalazły i mi wypomniały. Dlaczego to pokazuję? Bo chciałbym państwu powiedzieć, że sztuczną inteligencją – i to nie jest jakaś kwestia podbudowania się, w żadnym wypadku, wręcz przeciwnie – sztuczną inteligencją zajmuję się od 20 lat. Dlaczego o tym mówię? Bo wiem, jak sztuczna inteligencja jest dobra, ale też wiem, jak jest słaba, bo ona po prostu jest słaba i musimy sobie z tego cały czas zdawać sprawę.</u>
<u xml:id="u-1.11" who="#JanKozak">Mam bardzo ograniczony czas, a chciałbym jeszcze jedną myślę fajną rzecz pokazać. W związku z tym bardzo szybciutko przebiegnę przez slajdy, o których powinniśmy sobie rozmawiać znacznie dłużej. Wszyscy mówimy o sztucznej inteligencji i wszyscy nie wiemy o czym mówimy, ponieważ sztuczna inteligencja nie ma jednoznacznej definicji i często ją znacznie inaczej czujemy. Większość społeczeństwa dzisiaj, w chwili, kiedy pojawił się ChatGPT i później inne modele językowe, wierzą w sztuczną inteligencję jakby ona była, istniała, jak z nią rozmawiają, mówią „czat mi powiedział”. Niektórzy wierzą w pełni w to, co tam się dzieje i tak utożsamiają sztuczną inteligencję, a to jest tylko jeden element, jeden bardzo zawodny element sztucznej inteligencji, który wrzucilibyśmy do tych kwestii. Tutaj przede wszystkim pojawiałoby się jakieś przetwarzanie obrazu, analiza danych, a generatywna sztuczna inteligencja jest tylko pewnym elementem, zawsze musimy sobie to odróżnić. Nie mamy na to czasu, bo powiedziano mi, że nawet krócej niż 15 minut byłoby dobrze, gdybym powiedział, więc pozwolę sobie to przebiec. Gdyby ktoś chciał ze mną porozmawiać, to proszę śmiało albo przyjść na jakieś inne moje prezentacje, gdzie dłużej o tym rozmawiamy.</u>
<u xml:id="u-1.12" who="#JanKozak">Jak zdefiniowalibyśmy sztuczną inteligencję? Nie wiem, ciężko powiedzieć. Dawno temu, bo w 1950 r. Alan Turing był jednym z pierwszych, który zdefiniował sztuczną inteligencję, jako matematyk zdefiniował to w bardzo prosty sposób. Zdefiniował to w taki sposób, że w chwili, kiedy będziemy rozmawiać z grupą osób i z maszyną i nie poznamy, który z tych elementów był maszyną – bardzo spłaszczam – nie rozpoznamy, kto był maszyną, a kto był człowiekiem, to znaczy, że maszyna jest sztuczną inteligencja, znaczy ona nas pokonała. To jest pytanie, czy… Turing powiedział, że 50 lat potrzebujemy, żeby osiągnąć poziom sztucznej inteligencji przez niego zdefiniowaną, czyli tak jak rozmawiamy sobie i nie wiemy w sumie z kim, trochę się pomylił. Tak patrzę na Adriana i patrzę na innych profesorów, bo wedle mojej wiedzy chyba jeszcze nic nie przeszło. Tam były głosy w tamtym roku o ChatGPT, ale to takie chyba bardziej plotki. Tak, kiwają, że tak, więc się pomylił. Do dzisiaj nie mamy nawet czegoś, co rozmawiając z nami szukałoby nas. ChatGPT wcale nie jest tak dobry, łatwo go złamać, łatwo zobaczyć i łatwo w ferworze pewnej rozmowy do tego dojść.</u>
<u xml:id="u-1.13" who="#JanKozak">Drugi aspekt, też bardzo szybko biegnę, proszę państwa, to jest coś, o czym powinniśmy mówić 15 minut, albo i dłużej, coś co pokazuje nam – i to jest moim zdaniem ważny slajd – że sztuczna inteligencja to zawsze jest tylko jakieś wykonywanie algorytmów i takie proste wykonywanie algorytmów. Bardzo szybko przez to przebiegnę, ale mam pytanie. Czy pani umie chiński? Doskonale, pani nie umie chińskiego, to mnie bardzo cieszy. Bo na czym polega chiński pokój w wielkim skrócie? Wyobraźmy sobie, że wpadają tutaj Chińczycy i panią porywają. Co robimy? Nie. Pewnie sobie zasłużyła, niech ją biorą „jeszcze torebkę weźcie, bo to jej torebka”, więc porwaliby panią, wywieźli gdzieś, w miejsce, gdzie są tylko Chińczycy, mówią tylko po chińsku, pani zamknęłaby się w jakimś pokoju i oni bardzo chcieliby z panią rozmawiać, więc pisaliby coś po chińsku na jakichś karteczkach i dawali pod drzwiami karteczkę z chińskimi znaczkami, a pani w pokoju nie miałaby nic innego, jak tylko książkę. Książkę, gdzie po jednej stronie są chińskie znaczki, myślnik, po drugiej stronie są chińskie znaczki, wygląda to wprost jak słownik. Przeglądając tę książkę z nudów znalazłaby pani jakieś chińskie znaczki, które tam się znajdują po lewej stronie, więc to jest teza złośliwości. Byłbym złośliwy, więc przepisałbym te, co po prawej. Przepisałbym chińskie znaczki, które są po prawej albo pani przepisałaby je i tam pod drzwiami oddałaby im pani. Co Chińczycy pomyśleliby? Dobra, może więcej, piszą kolejną kartkę, wsuwają, pani już szybciej wie, że musi to znaleźć. Znajduje, odpisuje, przekazuje i tak sobie wymieniliście państwo 10 karteczek. Oni napisali po chińsku, państwo oddaliście po chińsku. Jak państwo czujecie, co Chińczycy pomyśleliby w tej sytuacji? Doskonale, że zna chiński, a pani totalnie nie zna chińskiego, tak mi powiedziała i pani tak naprawdę nie ma pojęcia czy tam już na ślub z trzecim synem się nie umówiła i tam już jakie kwiatki w zasadzie jest ustalanie, a to zupełnie nie tak jest.</u>
<u xml:id="u-1.14" who="#JanKozak">Dlaczego o tym mówię? Bo właśnie sztuczna inteligencja nie ma świadomości. To zawsze do tej pory są algorytmy, które są po prostu wykonywane i algorytmy bazujące na danych… Przepraszam, że tak zerkam na zegar, ale czuję presję. Algorytmy nie zawsze na danych… przepraszam, to jest pomyłka, nie zawsze na danych, czasami nie na danych, czasami sztuczna inteligencja działa w zupełnie inny sposób. Może nie w zupełnie, ale w inny sposób, w taki sposób, gdzie sama kreuje – znowuż, też ją utożsamiam, a to nie powinno tak być – przy pomocy sztucznej inteligencji sami kreujemy pewne poprawne rozwiązania, nagradzając ją, jak zrobi coś dobrze i dając kary, jak zrobi coś źle, tak w wielkim skrócie.</u>
<u xml:id="u-1.15" who="#JanKozak">Sztuczna inteligencja w momencie, kiedy budujemy model jest troszeczkę jak wychowanie, jak wychowanie dziecka, jak będziemy dziecko chwalić za to, że zrobiło coś niefajnego, bo śmieszne, bo fajnie, bijemy brawo, to ono będzie to powtarzało chociaż to jest złe i odwrotnie. Dobra, problemy etyczne wiem, że dzisiaj będą, to pomijam. Będą, bo widziałem na rozpisce, że któraś pani będzie raczyła nam o tym powiedzieć. To jest bardzo ważny problem. W CYBER SCIENCE również się tym problemem zajmujemy dosyć mocno i jestem wdzięczny, że pani mnie w tym wyręczy.</u>
<u xml:id="u-1.16" who="#JanKozak">Natomiast druga część, która się u nas pojawia, to świadomość. Na wstępie państwu powiedziałem, że musielibyśmy mieć świadome algorytmy, świadomą sztuczną inteligencję, abyśmy mogli powiedzieć, że OK, że ona jest w stanie cokolwiek nam zagrozić. Obecna sztuczna inteligencja, jeżeli myślimy o przejęciu władzy, o wpadnięciu w jakieś własne pomysły o likwidacji ludzi i tym podobne kwestie, które się pojawiają w jakichś strasznych filmach, to jest nieprawda, to nie ma szans. W mojej opinii nie ma najmniejszej szansy, żeby coś takiego się stało. Za chwilkę będą dwaj panowie profesorowie, ale myślę, że nie potwierdzą. Tak zerkam nieśmiało.</u>
<u xml:id="u-1.17" who="#JanKozak">Natomiast jest coś, co nazywamy ogólną sztuczną inteligencją – Artificial General Intelligence i to jest nieco inna kwestia. Tego nie mamy. Właśnie, może tak, nie mamy tego, tylko o tym mówimy, o tym rozmawiamy. To byłoby coś, co moglibyśmy stworzyć być może kiedyś w przyszłości i być może kiedyś w przyszłości to mogłoby zadziałać samo, bo udawalibyśmy świadomość w tej maszynie, w takim znowuż wielkim skrócie, ale że czulibyśmy, jak to działa, szczególnie w tym moim mega ograniczonym czasie.</u>
<u xml:id="u-1.18" who="#JanKozak">Tak jeszcze podsumowując lekko naszą sztuczną inteligencję i pokazując, że OK, ja uwielbiam, jestem romantykiem sztucznej inteligencji, ale wiem, jak ona jest zła. Nie, że zrobi nam coś złego, ale jak jest niedoskonała i chciałbym państwu to pokazać. Jest coś takiego, co nazywamy cyklem hossy sztucznej inteligencji, niektórzy mówią na złość cyklem zawodu sztuczną inteligencję. Dlaczego? Proszę zwrócić uwagę, mamy tutaj… coś się pojawia, pojawia się nowa technologia, pojawił się ChatGPT i wszyscy „wow!, świetnie, zabierze mi pracę i w ogóle”. Nagle wpisujemy 2 plus 2 i on tam 7, albo pytamy o jakąś książkę, on tam w ogóle wymyśla innych autorów. Zaraz państwu powiem, dlaczego. Nagle wszyscy „nie, to jest bez sensu”, a później „OK, ale jak zadajemy dobre pytania i tak niekoniecznie ufamy, uczymy się, to mi się strasznie podoba ChatGPT”. Znaczy wierzę w ludzi również, więc bardzo chciałbym, żeby ludzie to robili, uczymy się krytycznego myślenia, bo mam nadzieję, że już większość osób nie wierzy w ciemno w to, co ChatGPT… Używają go, świetnie, to jest świetne narzędzie, tylko sprawdzamy, czy aby się nie pomylił, czyli uczymy się krytycznego myślenia, zadawania pytań i wychodzimy na taki płaskowyż, gdzie mówimy „OK, to jest, jest to fajne nowe narzędzie, ale nie jest to coś, co nas w jakiś ogromny sposób zrewolucjonizowało”.</u>
<u xml:id="u-1.19" who="#JanKozak">QR kod państwo macie dokładnie do tego wykresu, aktualna wersja lipiec 2023 r., niebawem pojawi się nowa wersja. Tutaj na tym cyklu mamy jeszcze tak naprawdę przedstawione problemy rozwiązane, rozwiązywane i na jakim etapie się pojawiamy. Będzie dzisiaj o wizji komputerowej. Wizja komputerowa, proszę zwrócić uwagę, już wchodzi na płaskowyż, bo już jest naprawdę świetna. My wizją komputerową… W cyberbezpieczeństwie, w bezpieczeństwie choćby państwa jesteśmy w stanie sprawdzić czy dana osoba rzeczywiście jest tą za kogo się podaje, czy wychowała się w miejscu, które podaje, czy to, aby nie jest ktoś, kto przyjechał z jakiegoś innego regionu świata i mówi „nie, ja tam mieszkałem”. Po rysach twarzy, pstryknięcie palcami, mamy rozwiązanie.</u>
<u xml:id="u-1.20" who="#JanKozak">Generatywna sztuczna inteligencja, ChatGPT na samym szczycie, czyli szalenie mu w lipcu ubiegłego roku ufaliśmy i później wielki spadek, podejrzewam, że teraz to on będzie gdzieś tutaj. Jeszcze kolorki tutaj pokazujące – wizja komputerowa już jest białą kropeczką, jest bardzo dobrze, już prawie ją rozwiązaliśmy, ChatGPT albo inaczej – inne generatywne sztuczne inteligencji 5-10 lat jeszcze potrzebujemy, żeby do tego mniej więcej dotrzeć. Dlaczego? Bo generatywna sztuczna inteligencja, jak cała sztuczna inteligencja jest bardzo prosta. Czemu mówię, że jest prosta? Bo głębokie sieci neuronowe, które dzisiaj wszyscy i „wow!, świetny wynalazek tego wieku”, to żaden ten wiek, lata 40. ubiegłego wieku, pierwszy perceptron, lata 50. pierwsza sieć neuronowa, później wielki zawód w latach 60., że to jest złe, niedobre, lata 80. znowuż wrócił zachwyt, a później znowuż ludzie w to nie wierzyli. 20 parę lat temu, jak się zaczynają zajmować uczeniem maszynowym, to mi naprawdę wiele osób na uczelni mówiło „A po co? To jest taka zabawa. Przecież tego się do niczego nie wykorzysta”, takie słyszałem glosy, bo wtedy był ten zawód. Teraz znowu mamy zachwyt. Myślę, że niebawem ten zachwyt może nie to, że zdołuje nas całkowicie, ale może nie będzie tak fajny.</u>
<u xml:id="u-1.21" who="#JanKozak">Szybciutko jeszcze, zanim pokażę jedną rzecz, nie skończę tej prezentacji, ale nie szkodzi, specjalnie zrobiłem ją dłuższą, bo mówię „różnie może być, może pani powie pół godzinki lekko” więc zrobiłem dłuższą. Ale chciałbym jeszcze dwie rzeczy pokazać, jedną rzecz powiedzieć, dwie rzeczy pokazać, bo generatywna sztuczna inteligencja, o której przed chwilką powiedzieliśmy, ChatGPT to jest szalenie proste rozwiązanie. Uproszczę to. To aż tak proste nie jest, ale generalnie rzecz biorąc, zadajemy pytanie i szukane jest słowo, które w największym prawdopodobieństwie powinno się pojawić jako pierwsze przy tej odpowiedzi. Następnie bierze znowuż pod uwagę pytanie i pierwsze słowo, które się pojawiało i szuka słowa, które w największym prawdopodobieństwie powinno się pojawić jako drugie, a później jako trzecie, a później jako czwarte. To nie jest pełna odpowiedź w pełnej wiedzy, to są takie tokeny, ale to już tokeny możemy sobie uprościć do słów. To jest po prostu wyliczanie prawdopodobieństwa, jakie słowo powinno się tam pojawić. Stąd halucynacja, stąd to, że w jakiejś książce nagle pojawiła się postać, której w ogóle nie było, bo prawdopodobieństwo wyszło, że coś takiego tam być powinno, albo się zdarzyć, bo ktoś powie „zawsze jest miłostka i będzie miłostka w każdej książce”.</u>
<u xml:id="u-1.22" who="#JanKozak">OK. O bezpieczeństwie mam nadzieję, że dzisiaj coś się jeszcze pojawi. Deepfake – to są plusy i minusy, bo tak mówię o sztucznej inteligencji, że ona jest prosta, troszeczkę na nią narzekam, ale ją uwielbiam, tak że ktoś mógłby powiedzieć „niekoniecznie jest dobrze”, ale przed spotkaniem zapytałem się pana przewodniczącego czy mogę skorzystać z pana twarzy i głosu. Pozwoliłem sobie wczoraj wieczorem przy pomocy prostego narzędzia, nie powiem, że darmowego, ale bardzo taniego narzędzia, wytrenować pana głos. W związku z tym mam już wygenerowany pana głos, wziąłem jakieś krótkie wystąpienie niedawne z Sejmu. 1,5 minuty pan miał jakieś wystąpienie i sobie je wziąłem, pan głośno mówił, dlatego ten głos też będzie dosyć głośno mówił, bo tak się wytrenował na te 1,5 minuty. Czyli mamy 1,5 minuty wytrenowanego głosu i teraz zróbmy sobie tak – stworzyłem sobie pana awatara.</u>
<u xml:id="u-1.23" who="#JanKozak">Co to znaczy „stworzyłem awatara”? Rzecz bardzo prosta, po prostu wziąłem zdjęcie z Wikipedii. Gdzieś mi to zniknęło, możemy to zrobić na bieżąco. Nie, nie mamy czasu na bieżąco, OK, nie szkodzi. Nie widzimy tutaj tego zdjęcia. To jest po prostu kwestia wgrania zdjęcia. Krzyczą na nas, że nie mamy czasu, więc mam coś gotowego, tylko to gotowe mówi coś, co wczoraj wymyśliłem. To zróbmy sobie już bardzo mało rzeczy. OK, zedytujmy to, co ja wczoraj przygotowałem. Tylko on nie widzi pan awatara, a pan na mnie krzyczy, że nie mamy czasu. 3 minuty? Nie ma już? 3 minuty mamy, dobra. Przepraszam, to najwyżej skrócicie. OK. To w takim razie musimy się cofnąć, nie wiem czemu zgubił pana zdjęcie. Mogę pokazać po prostu gotowe rozwiązanie, ale tu nie pamiętam, co pan mówi, coś z poprzedniej sesji pan mówi po prostu, bo sobie wziąłem tekst z sesji. Gdzie to jest? Foto awatar. Przy okazji zobaczycie państwo, jak to jest prosto i szybko, załaduj i gdzieś będę pana miał w moich pobranych. Przepraszam, ale tak to jest, jak się spieszę. Właśnie, miałem pana gdzieś. Tu, jest pan. Ładujemy sobie pana zdjęcie, to chwileczkę potrwa. OK. Już leci, zaraz będzie. Mamy pana zdjęcie. Zedytujmy sobie je troszeczkę, nie zdjęcie, ale zedytujmy sobie, żeby pan, po pierwsze, nie mówił jak kobieta i po angielsku, znaczy można też, oczywiście.</u>
<u xml:id="u-1.24" who="#JanKozak">To jest świetne narzędzie, bo właśnie minusy, plusy, bo minusy, bo mogą udać, że pan coś powiedział, plusy – możemy pstryknięciem palca przetłumaczyć na przykład wystąpienie nasze na 26 chyba obecnie języków, całkiem dobrze, na bieżąco tłumaczy 26 języków, możemy nawet rozmawiać na bieżąco, że ja mówię po polsku, a ktoś tam po arabsku z drugiej strony telefonu. Ale wezmę sobie właśnie „podkomisja, test”, bo tak sobie napisałem podkomisję i to jest akurat pana głos, przynajmniej być powinien. OK, wgrał pana głos, więc sobie to zapiszemy. To stare usuniemy, żeby nam się to nie myliło. To już jest naprawdę końcówka, wiem, że pan się na mnie stresuje strasznie, ale już dosłownie 20 sekund. To jest fajniejsze niż jakbym… Gdzie tu jest… Nie folder, tylko nowe, jejku, zgubiłem się. Widzicie państwo gdzieś nowe? Zgubiłem się, gdzie jest nowe? Tu jest. OK. Dobra. Znalazłem. Dobra, póki on sobie to ładuje, to może pokażę to, co przygotowałem wczoraj… chociaż nie, już mamy w zasadzie. Klikamy sobie foto awatar, bierzemy sobie pana, pana chcieliśmy. Na chwilę odłożę mikrofon…</u>
<u xml:id="u-1.25" who="#JanKozak">On się teraz generuje i za chwilkę będzie pan jeszcze twarzą ruszał, ale może właśnie zanim to się wygeneruje, to żeby już nie przedłużać jakoś wybitnie, to mogę nawet… Tak, chcę za to zapłacić. Nie… nie szkodzi i chcę zapłacić. Dobra, to wezmę coś, co wczoraj wziąłem, też nic złego. Trochę się zwalnia mój komputer, ale normalnie to wygląda płynniej, ale coś mi tutaj zwalnia. Mogę panu wysłać, to pan zobaczy. Kwestia albo rzutnika, albo mojego komputera i dlatego jest takie lekkie zwolnienie. Dobra, w zasadzie, proszę państwa, bo na mnie krzyczą, skończyłem. Zobaczymy tylko czy się wygenerowało, ale w międzyczasie bardzo państwu dziękuję i oddaję głos dalej.</u>
<u xml:id="u-1.26" who="#BartłomiejPejo">Drodzy państwo, „zastosowania sztucznej inteligencji, korzyści i zagrożenia” to temat referatu naszego kolejnego mówcy, profesora Politechniki Śląskiej pana Marka Sikory. Bardzo proszę, panie profesorze, o zabranie głosu.</u>
<u xml:id="u-1.27" who="#MarekSikora">Każde wystąpienie powinno się… Postaram się wyrobić. Każde wystąpienie powinno się zaczynać od żartu, więc powiem, że nigdy nie myślałem o sobie jako o introwertyku, ale porównując się do wystąpienia Janka, moje wystąpienie raczej będzie introwertyczne i być może bardziej akademickie.</u>
<u xml:id="u-1.28" who="#MarekSikora">Przygotowałem tutaj – nie będę ich wszystkich omawiał, to można przeczytać – przygotowałem tutaj kilka zastosowań tzw. klasycznej sztucznej inteligencji, a tak naprawdę maszynowego uczenia, zastosowania metod maszynowego uczenia, jakie są realizowane w Politechnice i to oczywiście nie są wszystkie zastosowania, bo już każdy wydział się tym zajmuje. Tutaj kolega z Wydziału Organizacji i Zarządzania też coś na ten temat będzie mówił.</u>
<u xml:id="u-1.29" who="#MarekSikora">Ale chciałbym szczególnie zwrócić uwagę na pkt 6 – zastosowania w administracji publicznej. Mamy takie doświadczenia, ponieważ braliśmy udział w konkursach organizowanych przez kiedyś bardzo aktywny, teraz w sumie od już dłuższego czasu nieaktywny, jeszcze o tym powiem, była taka inicjatywa GovTech, która organizowała różnego rodzaju konkursy związane z maszynowym uczeniem, takie zastosowania w administracji publicznej. Braliśmy udział w realizacji takich zastosowań, jak wykrywanie nadużyć w podatkach miejskich, głównie chodziło o opłatę śmieciową i tutaj mogę się pochwalić, że wygraliśmy ten konkurs. Były też ciekawe cases, że tak powiem po staropolsku, związane z poszukiwaniem zaginionych zwierząt, obywatel mógł sobie sprawdzić, przesłać zdjęcie i po prostu dowiedzieć się czy takie zwierzę jest gdzieś w schronisku. Bardzo ciekawym było również wykrywanie przedmiotów niebezpiecznych na zdjęciach RTG i to było dla Straży Granicznej, z tego co pamiętam, tam akurat nie wygraliśmy, może dlatego, że profesor Nalepa nie był w naszym zespole jako specjalista od przetwarzania obrazów. Natomiast jest to jego zastosowanie związane z diagnostyką mózgu na podstawie zdjęć RTG i chyba tomografii. Będę też krótko o tym mówił, to jest narzędzie, które przeszło pewien proces certyfikacji.</u>
<u xml:id="u-1.30" who="#MarekSikora">Natomiast, jak sobie słuchałem o celach naszego spotkania, to państwo chcieliby się być może dowiedzieć jak my z punktu widzenia powiedzmy naukowca i wykładowcy, w jaki sposób wykorzystujemy sztuczną inteligencję do naszej codziennej pracy. Oczywiście na wydziałach technicznych to jest trochę trudniej niż na wydziałach humanistycznych, ponieważ na przykład wsparcie w pisaniu publikacji polega głównie na tym, żeby sobie robić jakieś powiedzmy przekształcenia naszego tekstu, który już gdzieś tam mamy napisany, a chcielibyśmy, żeby był troszkę napisany inaczej. Wsparcie przy robieniu wszelkiego rodzaju przeglądów literatury, bo praktycznie każdy powinien mieć artykuł – taki przegląd literatury. Natomiast, jeśli chodzi o zasadnicze części, to wydaje mi się, że w naukach technicznych ciężko jest tak, żeby na przykład bazować na generatywnej sztucznej inteligencji.</u>
<u xml:id="u-1.31" who="#MarekSikora">Oczywiście, generatywna sztuczna inteligencja, czyli teraz dzielę to na dwie rzeczy, czyli klasyczną sztuczną inteligencję i generatywną, która jest modna powiedzmy od 2-3 lat i przez to też bardzo wzrosło zainteresowanie opinii publicznej, ale również władz przez to, że w tej chwili jest powszechnie używana. Jeśli chodzi o generatywną sztuczną inteligencję, to w naukach technicznych generowanie zasadniczych treści na przykład artykułów, to moim zdaniem jeszcze trochę musimy odczekać. Mnie sztuczna inteligencja pomaga również i bardzo ważne słowo „pomaga”, dałem tam wykrzykniki, na przykład w pisaniu wszelkiego rodzaju recenzji czy recenzowaniu prac inżynierskich czy magisterskich. To będzie też zagrożenie, o którym powiem na następnym slajdzie. Oczywiście standardowo wsparcie w przygotowaniu wykładów, które przecież mamy już opracowane, chcemy je jakoś uatrakcyjnić poprzez generowanie zdjęć czy może zmienianie trochę treści, jak również przygotowywanie różnych egzaminów, sprawdzanie to raczej nie, ale przygotowanie testów itd. Jeśli ktoś ma zajęcia z programowania, akurat nie mam, ale jestem z takiego wydziału, to łatwo również przygotowywać zadania związane z programowaniem, wspierając się generatywną sztuczną inteligencją i to są korzyści.</u>
<u xml:id="u-1.32" who="#MarekSikora">Takimi obszarami zastosowań są również wsparcie pracy zespołowej i tutaj z kolei powiedziałbym to jako ktoś, kto zajmuje się również wdrażaniem systemów, które mają elementy sztucznej inteligencji, sztuczna inteligencja pomaga nam zarządzać zespołem, tutaj wymieniłem kilka takich przykładów.</u>
<u xml:id="u-1.33" who="#MarekSikora">Generalnie jest bardzo dużo narzędzi, tutaj już sprawdziłem przed, mogę państwu pokazać, mam taki przegląd przygotowany przez pana doktora Siudę, on takie szkolenia prowadzi, tam jest chyba z 40 czy 50 różnych odnośników do narzędzi wspierających różne aspekty działalności nie tylko naukowca i dydaktyka, ale obywatela. Jedne są lepsze, drugie gorsze, jedne są darmowe, drugie są płatne. Ale generalnie są takie dwa portale „AI Tools Club” i „TopAI.tools”, na których można sobie wyszukiwać rozwiązania sztucznej inteligencji, które są dedykowane do rozwiązania różnych problemów. Jeden z tych portali to jest taki portal, który dokonuje również recenzji tych rozwiązań. Czyli to nie jest tylko tak, że to jest tam powrzucane, ale oni dokonują też pewnej ocen tych rozwiązań.</u>
<u xml:id="u-1.34" who="#MarekSikora">Bardzo ważne, jeśli chodzi o upowszechnianie zastosowania sztucznej inteligencji i budowanie zaufania do sztucznej inteligencji, certyfikacji sztucznej inteligencji jest postulat objaśnialności. Postulat objaśnialności jest znany od dawna, w szczególności w klasycznych metodach maszynowego uczenia, tu są te podziały, nie będę o tym mówił, jeśli trzeba to prezentacja będzie dostępna, są dosyć dobrze opracowane mechanizmy objaśnialności. Natomiast w generatywnej sztucznej inteligencji, w głębokich, w dużych, głębokich sieciach neuronowych oczywiście są pewne próby zrozumienia na jakiej zasadzie sieć działa, ale tutaj mogę za autorytetem w tej dziedzinie, czyli profesorem Włodzisławem Duchem, że dalej nie rozumiemy, jak takie duże sieci działają. Natomiast możemy sobie wizualizować w różny sposób, jak taka generatywna sztuczna inteligencja czy nawet klasyczna sztuczna inteligencja działa i na tej podstawie budować, albo nie budować do niej zaufania. Co o tym myślę? Myślę o tym, że taki proces objaśniania powinien być jednak interaktywny, że to nie jest proces jednokrokowy, to raczej powinno być na zasadzie pewnego dialogu z tym objaśniaczem bazującym na przykład też na generatywnej sztucznej inteligencji, który będzie nam uzasadniał i doprecyzowywał pewne pytania, na które jeszcze chcemy uzyskać odpowiedzi.</u>
<u xml:id="u-1.35" who="#MarekSikora">Brałem udział też, znaczy biorę chyba jeszcze dalej, bo o tym też powiem, w grupie roboczej do spraw sztucznej inteligencji. Tam, ile razy były spotkania inicjujące, to duzi gracze, tacy jak na przykład Amazon, Microsoft czy Google, to oni nie myślą o rozwoju, o jakimś wsparciu, że jest jakieś wsparcie metod sztucznej inteligencji w Polsce, ich interesują kwestie prawne. Ich w tych grupach tylko interesowało, jaka będzie odpowiedzialność, co oni muszą zrobić i po prostu to było główne pytanie stawiane przez dużych graczy, którzy tak naprawdę są dostawcami większości tych bardzo zaawansowanych rozwiązań.</u>
<u xml:id="u-1.36" who="#MarekSikora">Drugim ważnym aspektem rozwoju sztucznej inteligencji również w Polsce jest dostępność danych dobrej jakości. Teraz, proszę państwa, oczywiście, jeśli mówimy o takich zastosowaniach, jakie na przykład Janek, przepraszam, profesor Kozak, pokazywał, to tych danych jest dużo, bo dane są dostępne w internecie, dane obrazowe, dźwiękowe i tam duże modele językowe mogą się uczyć. Ale jeśli sobie wyobrazimy nawet klasyczne zastosowania sztucznej inteligencji, na przykład w productive maintenance, czyli optymalizacji pracy linii produkcyjnej itd, to bardzo ważnym aspektem rozwoju przedsiębiorstw, metod sztucznej inteligencji jest dostępność dobrej jakości danych.</u>
<u xml:id="u-1.37" who="#MarekSikora">Teraz są różne inicjatywy, jest inicjatywa europejska „Open Data – Open Science”, Polska do niej należy i oczywiście są różnego rodzaju portale, które powinny otwierać dane i w Polsce jest taki portal dane.gov.pl. Ten portal oceniałem do tej pory dosyć krytycznie, od już jakiegoś czasu jest tam coraz więcej danych, które faktycznie nadają się do trenowania różnego rodzaju modeli. Kiedyś, żeby spełnić jakieś kryterium otwartości danych, to po prostu firmy wrzucały na przykład jakieś PDF-y czy sprawozdania. To nie są dane, które można byłoby zastosować w rozwoju metod i przedsiębiorstw związanych ze sztuczną inteligencją. Bardzo ważne w tym udostępnianiu danych jest to, że firmy zazwyczaj nie są zainteresowane udostępnianiem danych, ponieważ nie ma jakichś metod monetyzacji tego udostępniania, jakichś takich generalnych metod powiedziałbym krajowych.</u>
<u xml:id="u-1.38" who="#MarekSikora">Tutaj pokazuję, to jest portal otwartych danych, europejski. Tu są oczywiście komercyjne portale związane z otwartymi danym. „Knowledge Pit” to jest portal rozwijany przez kolegów z Uniwersytetu Warszawskiego, którzy już go troszkę też skomercjalizowali, więc nasze firmy też coś tam w tej dziedzinie robią. Tu jest „Kaggle”, znane repozytorium różnego rodzaju danych i to jest repozytorium komercyjne, to jest jakiś wyznacznik tego, że jak jest komercja, to to się rozwija. To jest rzut z danych.pl i tu jest taki przykład – nie wiem czy naruszam jakieś RODO, czy nie, właśnie teraz się nad tym zacząłem zastanawiać – ale to jest przykład przykładu, że tu już są dane, które nadają się do trenowania modeli, czyli dane numeryczne odpowiednio przygotowane, jako efekt prowadzenia jakiegoś projektu europejskiego. Swoją drogą też wymogi WCAG powodują, że nasze portale powiedziałbym administracyjne nie wyglądają ładnie, natomiast są dostępne.</u>
<u xml:id="u-1.39" who="#MarekSikora">Jakie są zagrożenia? Nieumiejętne i bezkrytyczne AI. Głównie polega to na tym, że – podam jeden przykład – jeśli wiem, że większość prac inżynierskich jest pisana przez generatywnego AI, to jestem z góry na straconej pozycji. To moje recenzje również generuje generatywny AI i w tym momencie przestaje to mieć jakikolwiek sens. W związku z tym tu trzeba byłoby – i tu każda uczelnia musi sobie poradzić z tym sama, bo uczelnie mają autonomię – jak podchodzić do tego tematu. Zastanawialiśmy się na radzie dziekańskiej czy nie zrezygnować na przykład z pisania prac albo zmienić sposoby pisania prac. Kwestie zalewu publikacji naukowych – oczywiście są pewne mechanizmy, które wykrywają, czy publikacja została wygenerowana przez generatywną sztuczną inteligencję, czy nie, ale jest zalew publikacji naukowych, w związku z tym potencjalni recenzenci, a te procesy są nieodpłatne, chcemy publikować, toteż musimy recenzować. Jestem redaktorem w jednym czasopiśmie międzynarodowym, często recenzje naprawdę są generowane też przez… To przestaje mieć sens, to jest zagrożenie, bo gdzieś ta zabawa się odbywa poza nami, a my tylko to firmujemy.</u>
<u xml:id="u-1.40" who="#MarekSikora">Ostatni slajd, takie trochę doświadczenia naukowca i wdrożeniowca. Mam takie doświadczenia z grup roboczych AI i to nie co cztery lata zaczynamy od nowa, tylko częściej niż co cztery lata zaczynamy od nowa tworzyć te grupy, często jest tak, że w grupach nie widzę osób, które naprawdę powinny w tych grupach być, więc może trzeba się zastanowić czy niektóre osoby, które są po prostu dobre, bo to od razu widać, czy ktoś jest dobry, zapraszać do takich grup. W Polsce nie ma programu rozwoju sztucznej inteligencji, ale nie wiem, czy to jest źle, finansowanego z jakiegoś ośrodka, który jest do tego dedykowany, dlatego że jest bardzo dużo konkursów związanych ze sztuczną inteligencją w różnego rodzaju programach, PARP, NCBiR, ABM, NCN i wielu, wielu innych.</u>
<u xml:id="u-1.41" who="#MarekSikora">Natomiast problemem – i teraz sobie trochę ponarzekam – jest czas i jakość oceny wniosków. Tutaj ponieważ spotykamy się z posłami, więc może by… Znaczy chcę to po prostu zaakcentować, że czas i jakość oceny trochę wynika również z tego, jak trudno w obecnej chwili zostać recenzentem wniosków w Narodowym Centrum Badań i Rozwoju, ponieważ na przykład w moim przypadku, a reprezentowałem NCBiR razem z Prokuratorią Generalną, jako super ekspert, bo wytoczyliśmy proces komuś, kto robił źle projekt, zapisując się do nowego systemu, który powstał w NCBiR musiałem ponownie udowodnić, że jestem doktorem habilitowanym, że recenzowałem jakieś wnioski itd. Wierzcie mi, że naprawdę po 2 godzinach dałem sobie spokój i nie jestem już ekspertem NCBiR-u.</u>
<u xml:id="u-1.42" who="#MarekSikora">Ciągłość działania. Jeszcze chciałbym powiedzieć o ciągłości działania i legislacji. Bardzo ważne jest to, żeby zachowywać ciągłość działania. Dużo projektów realizowanych przez agencje rządowe i przyrządowe jest bardzo fajnych, mówiąc kolokwialnie, natomiast, jak się kończą projekty, to one trochę działają tak jak na uczelni, na uczelni kończy się finansowanie projektu, bo uczelnia tak działa po prostu, to zapominamy o projekcie, ponieważ nie ma finansowania. Naukowcy zajmują się dalej jakimiś tam rzeczami, stąd mamy te wszystkie centra transferu technologii itd. To jest oddzielna sprawa. Natomiast, jeśli widzę, że na przykład państwowy instytut badawczy, nie będę wymieniał nazwy, robi jakieś rozwiązania związane ze sztuczną inteligencją i próbuję wejść, przetestować to rozwiązanie i dostaję informację, że strona nie istnieje, to jest to trochę słabe.</u>
<u xml:id="u-1.43" who="#MarekSikora">Ostatnia rzecz o legislacji. EMAG był głównym wykonawcą takiego bytu, który nazywa się zintegrowana platforma analityczna. To jest system dedykowany do KPRM-u, który pozwala na ściąganie danych od gestorów publicznych w sposób bezpieczny i zanonimizowany, brały w tym udział NGO-sy też, po to, żeby szybciej analizować dane z różnych źródeł i w ten sposób przyspieszać realizację polityk publicznych. Przynajmniej ze swojego idealistycznego punktu widzenia tak na to patrzę. Ten projekt zrealizowaliśmy i projekt od pewnego czasu jest trochę nieżywy, ponieważ nie do końca – to nie jest zarzut, tylko mówię jaki jest fakt – nie do końca przeprowadzono legislację, żeby to mogło być używane. Teraz, jeśli nawet KPRM zwróci się do KRUS-u, że teraz badamy na przykład przypadek związany z rolnictwem, to KRUS powie, że nie ma podstawy prawnej i oni przez ZPA danych nie udostępnią, zróbmy to normalnie, a to zajmuje bardzo, bardzo, dużo czasu, więc wydaje mi się, że o tym można byłoby pomyśleć.</u>
<u xml:id="u-1.44" who="#MarekSikora">Tu mam dwa takie, może państwo mniej więcej wiedzą co to, próbowałem się dostać na AI, która rozpoznaje niedozwolone zapisy w umowach. Dostałem komunikat, że strony nie znaleziono, co jest po prostu słabe, bo trochę źle o nas świadczy. Ale generalnie myślę, że jako kraj nie mamy się czego wstydzić, jeśli chodzi o zastosowania i również rozwój metod sztucznej inteligencji. Nie wiem, czy się zmieściłem, czy nie, ale dziękuję bardzo.</u>
<u xml:id="u-1.45" who="#BartłomiejPejo">Oczywiście, tak jak wspominałem na początku, będzie jeszcze czas na pytania, dyskusję w końcówce naszego posiedzenia.</u>
<u xml:id="u-1.46" who="#BartłomiejPejo">Teraz oddaję głos profesorowi Politechniki Śląskiej panu Jakubowi Nalepie, którego wystąpienie będzie poświęcone sztucznej inteligencji na orbicie. Bardzo proszę, panie profesorze.</u>
<u xml:id="u-1.47" who="#JakubNalepa">Tutaj być może to, co jest dość ciekawe akurat tego satelity jest to, że satelita jest wyposażony w kamerę hiperspektralną. To jest taka kamera, która pozwala nam zebrać obrazy, które nie są po prostu takimi zwykłymi obrazami, które znamy, to nie są obrazy RGB, to są obrazy, które mogą posiadać bardzo dużą liczbę pasm, czyli to nie jest RGB, w przypadku Intuition-1 to jest około 200 pasm spektralnych, dokładnie 192 pasma. W związku z czym możemy takie obrazy na pokładzie takiego satelity sobie zbierać i w jakiś sposób analizować.</u>
<u xml:id="u-1.48" who="#JakubNalepa">Tutaj możemy zauważyć kilka przykładów rzeczywistych danych, które już pozyskaliśmy z wykorzystaniem naszego satelity, on został właśnie wyniesiony na orbitę 11 listopada w zeszłym roku i mamy przykład obrazów w tym wypadku RGB w barwnych, które pokazują na pewne obszary Ziemi, które zobrazowaliśmy z wykorzystaniem naszego satelity. Tutaj widzimy, że to są być może takie proste obrazy 2D, natomiast za tymi obrazami stoi około 5 lat pracy dużego zespołu ludzi, którzy są specjalizowali w różnych dziedzinach i w sprzęcie, i oprogramowaniu, i przede wszystkim sztucznej inteligencji.</u>
<u xml:id="u-1.49" who="#JakubNalepa">Za chwilkę opowiem też o tym do czego takie dane możemy wykorzystać. Odpowiadając na pierwsze pytanie, dzisiaj troszkę skupię się na tym, że możemy tworzyć satelity, które są wyposażone w pewne aspekty pozwalające nam popierać czy przeprowadzać akwizycję danych, których nie da się pobrać na Ziemi i w jakiś sposób je przeanalizować. Natomiast zawsze, jeżeli chcemy analizować dane, które pozyskujemy na przykład w takim ekstremalnym środowisku, chcemy, żeby coś z tego ciekawego i sensownego dla nas też wyniknęło. Tutaj takim pierwszym zastosowaniem dość oczywistym jest obserwacja Ziemi. Wiemy, że chcemy zrozumieć planetę i chcemy pewne rzeczy móc przeanalizować na dużą skalę. W związku z czym, jeżeli pobieramy, czy prowadzamy akwizycję danych na orbicie jednoznacznie wiemy, że skalowalność takich rozwiązań jest w zasadzie nieporównywalna do tego co możemy zrobić na Ziemi i rzeczywiście takich zastosowań teoretycznych lub bardziej praktycznych jest bardzo dużo.</u>
<u xml:id="u-1.50" who="#JakubNalepa">Tutaj możemy zauważyć przykład obrazu multispektralnego, to jest akurat obraz pozyskany innym satelitą, w ramach innej misji, to jest Sentinel-2 w ramach programu Copernicus. Możemy zauważyć, że takie obrazy satelitarne możemy pozyskiwać dla konkretnego obszaru Ziemi. Możemy bardzo dokładnie je ze sobą skorejestrować, czyli w taki sposób dopasować i dzięki temu, że możemy takie obrazy pozyskiwać, możemy też w czasie analizować to, co w danym obszarze się zmieniło. Tutaj akurat widzimy przykład wylesiania i możemy sobie ocenić ilościowo, która część lasu czy który obszar został zmieniony i być może jakieś akcje naprawcze przeprowadzić.</u>
<u xml:id="u-1.51" who="#JakubNalepa">Natomiast to, co wydaje mi się jest bardzo ciekawe, to że możemy spróbować przeanalizować coś, co niekoniecznie jest widoczne gołym okiem, dzięki temu, że mamy dostępne bardzo wysokowymiarowe dane, czyli te obrazy hiperspektralne, o których wspomniałem na początku. To są obrazy, które mają bardzo dużo pasm, które pozwalają nam zauważyć coś co jest niewidoczne. Tutaj akurat widzimy przykład detekcji wycieków metanu, natomiast możemy takie zastosowania próbować wykorzystać do detekcji i do być może analizy różnych na przykład gazów cieplarnianych. Możemy też skupić się na zbiornikach wodnych i na analizie tego, co w takim zbiorniku wodnym się dzieje, jakie procesy zachodzą i czy być może jakieś tutaj ponownie akcje naprawcze moglibyśmy zaplanować i wdrożyć.</u>
<u xml:id="u-1.52" who="#JakubNalepa">Tak jak profesor Sikora wspominał, bardzo ważnym aspektem jest zbieranie danych. W ramach naszej misji Intuition-1 też zastanawialiśmy się, jakie pierwsze zastosowanie takie rzeczywiste powinno się pojawić. Tutaj warto też wspomnieć, że ten satelita jest takim można powiedzieć latającym laboratorium, to znaczy możemy zmienić sposób jego działania w czasie, jeżeli on już jest operacyjny możemy zaktualizować algorytm i na przykład analizować coś zupełnie innego na podstawie tych obrazów, które pozyskujemy. Natomiast chcieliśmy zacząć od analizy gleby, od ekstrakcji różnych parametrów gleby, które być może są dla rolnika, po to, żeby mu zoptymalizować na przykład proces nawożenia gleby i żeby zmaksymalizować czy zoptymalizować zbiory w danym obszarze.</u>
<u xml:id="u-1.53" who="#JakubNalepa">Pozyskaliśmy też obrazy w tym wypadku lotnicze, bo wiemy, że satelita nie był jeszcze operacyjny, więc rzeczywistych danych satelitarnych nie mogliśmy pozyskać, natomiast pozyskaliśmy obrazy lotnicze i powiązaliśmy je z próbkami naziemnymi, to znaczy próbki naziemne glebowe były przeanalizowane w laboratorium w związku z czym mogliśmy połączyć informację naziemną z czymś, co jest nieinwazyjne i zdecydowanie bardziej skalowalne.</u>
<u xml:id="u-1.54" who="#JakubNalepa">Zorganizowaliśmy konkurs dotyczący właśnie ekstrakcji czy estymacji tych parametrów gleby i można powiedzieć, że on odbił się dość głośno w literaturze i bardzo dużo zespołów z całego świata chciało próbować zaprojektować algorytmy na podstawie danych, które udostępniliśmy, po to, żeby różne parametry gleby, na przykład pH gleby w sposób taki automatyczny i zupełnie nieinwazyjny wyznaczać. Udostępniliśmy nasz zbiór danych i zachęciliśmy ludzi w zasadzie z całego świata, żeby sobie stworzyli swoje algorytmy i porównali się z nami i sprawdzili, kto jest lepszy.</u>
<u xml:id="u-1.55" who="#JakubNalepa">Problem z takim danymi jest przede wszystkim taki, jeżeli już pozyskujemy je sobie na pokładzie satelity, że one są bardzo wysoko wymiarowe, w związku z czym trudno jest je przesłać na Ziemię. Dlatego staramy się, mając takiego satelitę, spróbować wykorzystać metody sztucznej inteligencji i uczenia maszynowego, już tak konkretniej mówiąc, do tego, żeby przeanalizować dane w miejscu, w którym są one pozyskiwane. Czyli na pokładzie satelity analizujemy dane i przesyłamy tylko konkretną informację dotyczącą jakiegoś zastosowania, która akurat nas interesuje, na przykład detekcji metanu, analizy gleby czy cokolwiek innego, co nam może przyjść do głowy, tutaj można na pokładzie takiego satelity spróbować wyznaczyć.</u>
<u xml:id="u-1.56" who="#JakubNalepa">Bardzo istotnym pytaniem jest to, w jaki sposób możemy wdrożyć takie metody w środowisku uruchomieniowym, które jest ekstremalne. Wiemy, że jesteśmy na orbicie, więc dość ciężko jest coś naprawić na przykład w sprzęcie, jeżeli już to zostało wyniesione na orbitę. Natomiast, jeżeli spojrzymy sobie na algorytmy sztucznej inteligencji możemy zauważyć kilka takich kroków, które są krytyczne do tego, żeby móc w ogóle myśleć o wdrożeniu czegoś, co ma szanse działać na orbicie. Trzeba pamiętać, że nie mamy rzeczywistych danych, na których moglibyśmy przeprowadzić trening czy stworzenia takich algorytmów, bo te dane nie istnieją w związku z tym, że satelita jeszcze nie był operacyjny i nie był na orbicie, kiedy algorytmu tworzyliśmy.</u>
<u xml:id="u-1.57" who="#JakubNalepa">Tutaj widzicie państwo, że żeby w ogóle móc zacząć myśleć o tym, żeby takie dane przetwarzać mamy bardzo dużo kroków, po lewej stronie slajdu, które nam pozwalają stworzyć taką kostkę hiperspektralną, czyli taki obraz, który dopiero może być gotowy do tego, żeby go przeanalizować. To oczywiście też zabiera czas. Wszystkie kroki po lewej stronie, jeżeli przeprowadzamy na pokładzie satelity, to trwa i to też nie jest omijalne energetycznie, więc tutaj wszystkie algorytmy, które widzicie państwo w tych bloczkach, muszą być zoptymalizowane dla konkretnego urządzenia brzegowego, czyli dla takiego urządzenia, które jest bardzo ograniczone sprzętowo.</u>
<u xml:id="u-1.58" who="#JakubNalepa">Natomiast po prawej stronie slajdu widzimy nasz przykładowy zestaw kroków, który jest obecnie też wykonywany na pokładzie Intuition-1. Wiemy, że w pierwszym kroku chcemy odsiać obrazy, które są zachmurzone, bo być może nas nie interesują i tutaj też możemy zoptymalizować ilość danych, która ma być przeanalizowana na pokładzie tego satelity, odrzucając dane, z których na pewno wiemy, że nic nie uda się wyekstrahować, nic istotnego nie da się wyznaczyć. W kolejnym kroku szukamy gleby i w ostatnim kroku próbujemy wyestymować parametry, które nas interesują. W naszym wypadku są cztery parametry, ale też możemy dość łatwo, chyba nie chciałbym używać słowa „łatwo”, ale da się zmienić parametry, które chcemy estymować w przypadku działań całego satelity. Jeżeli mielibyśmy nowe dane moglibyśmy zoptymalizować algorytm, który w tej chwili jest działający na pokładzie, wysłać aktualizację i ekstrahować nowy zestaw parametrów, jeżeli stwierdzimy, że coś nowego warto byłoby tutaj dodać.</u>
<u xml:id="u-1.59" who="#JakubNalepa">Na bardzo wysokim poziomie abstrakcji mniej więcej taki łańcuch przetwarzania wygląda w taki sposób, natomiast samo wdrożenie jeszcze na Ziemi jest bardzo trudne z tego względu, że tutaj musimy mierzyć się nie tylko z tym, że nie mamy danych, nie tylko z tym, że algorytmy muszą być kompaktowe i działające szybko, ale też musimy pamiętać, że działamy na urządzeniu brzegowym, więc musimy wdrożyć technicznie algorytm środowiska, który jest bardzo sprzętowo ograniczone.</u>
<u xml:id="u-1.60" who="#JakubNalepa">Tutaj widzicie państwo też kilka kroków czy kilkanaście kroków, przez które musimy przejść. Natomiast to, co jest bardzo ważne w naszej praktyce uczelnianej i takiej komercyjnej, to jest to, żeby być w stanie w sposób ilościowy i taki rygorystyczny ocenić, czy algorytmy działają i czy w ogóle mają szansę w praktyce być wykorzystane.</u>
<u xml:id="u-1.61" who="#JakubNalepa">Wspomniałem też o tym, że tych danych nie ma, więc musimy sobie jakoś radzić z brakiem danych. Tutaj profesor Sikora wspomniał o tym, że powstają repozytoria, z których możemy korzystać, ale czasami są takie sytuacje, w których po prostu nie ma takich danych i musimy je sobie wygenerować. Bardzo ciekawym trendem w literaturze jest tworzenie cyfrowych bliźniaków. W przypadku satelitów to jest stworzenie takiego algorytmu, który symuluje charakterystykę na przykład sensora czy kamery, która jest umieszczona na pokładzie satelity, po to, żeby wygenerować obrazy, których się spodziewamy już w przypadku gdy satelita będzie operacyjny.</u>
<u xml:id="u-1.62" who="#JakubNalepa">Tutaj widzicie państwo kilka przykładów wygenerowanych obrazów. Widzimy, że one są bardzo różne, ale tak wizualnie widać, że istotnie się od siebie różnią i różnice wynikają z tego, w jakim momencie w czasie taka akwizycja na przykład następuje, jak wyglądają warunki atmosferyczne, wiele czynników wpływa na to, jak dane będą ostatecznie wyglądać i w jaki sposób powinniśmy je analizować.</u>
<u xml:id="u-1.63" who="#JakubNalepa">Już tutaj podeszliśmy do tematu właśnie w taki sposób, żeby symulować warunki, których się spodziewamy i stworzyć algorytmy w taki sposób, żeby były one odporne na to, co się może wydarzyć. Oczywiście obrazowanie Ziemi to nie jest jeden z takich przykładów zastosowań sztucznej inteligencji w zastosowaniach kosmicznych. Tutaj nie wiem, czy uda mi się pokazać taki przykład detekcji kamieni i przykład tworzenia informacji wizyjnej wokół przykładowo łazika, który może poruszać się w takim środowisku też dość ekstremalnym. Wiemy, że jeżeli chcielibyśmy eksplorować jakieś obszary, które są ciężko dostępne, to tutaj automatyzacja i zapewnienie odporności algorytmów na szum czy na to, że dane są w zróżnicowanej jakości jest ultraistotne po to, żeby móc je wykorzystać w praktyce. Tutaj też często jest sytuacja taka, że tych danych nie ma, więc musimy je sobie wygenerować.</u>
<u xml:id="u-1.64" who="#JakubNalepa">Wspomniałem o tym, że jest problem z danymi, z samą oceną algorytmów. Bardzo skupiamy się na tym, żeby zapewniać reprodukowalność i porównywalność algorytmów ze sobą. Tutaj praktycznie zawsze, jeżeli tworzymy jakieś algorytmy do konkretnego zastosowania, to staramy się udostępnić dane i sposób weryfikacji algorytmów, żeby każda grupa na świecie mogła się z nami porównać.</u>
<u xml:id="u-1.65" who="#JakubNalepa">Też może warto wspomnieć, że grupa z Princeton zauważyła to, że akurat w analizie danych satelitarnych bardzo się na tym skupiamy i wymienili nas jako jeden z przykładów, jedyny w zasadzie przykład grupy, która się skupia na tym, żeby w sposób metodycznie poprawny oceniać algorytmy analizy danych satelitarnych. Właśnie też na liście Uniwersytetu Princeton się tam znaleźliśmy.</u>
<u xml:id="u-1.66" who="#JakubNalepa">Parę słów końcowych odnośnie do danych telemetrycznych. To są takie dane nieobrazowe, które pozwalają nam zrozumieć to, czy taki satelita działa dobrze, czy niedobrze, czy być może coś złego zaczęło się dziać. Tutaj widzicie państwo, że to są zwykle sygnały jednowymiarowe, czyli jakieś odczyty z czujników, które nam pozwalają ocenić to, czy satelita działa poprawnie, widzimy, że w przypadku danych rzeczywistych już nie jest tak łatwo, te braki w danych są brakami nominalnymi, czasami wiemy, że po prostu danych będzie brakować albo że będą z jakiegoś powodu niższej jakości i musimy sobie też z tym radzić.</u>
<u xml:id="u-1.67" who="#JakubNalepa">Tak już kończąc, wdrożyliśmy też algorytm na pokładzie satelity Opsat, to jest satelita już nieistniejący, skończył swoją misję w zeszłym tygodniu, to był satelita Europejskiej Agencji Kosmicznej i też stworzyliśmy algorytm detekcji anomalii, czyli takich sytuacji niepożądanych na pokładzie satelity, wdrożyliśmy go na pokładzie satelity i przetestowaliśmy na rzeczywistych danych.</u>
<u xml:id="u-1.68" who="#JakubNalepa">Tutaj jest jeszcze jeden przykład tego, jak możemy dane generować, jeżeli ich nie ma i tutaj w przypadku danych sygnałowych telemetrycznych jest to dość proste, natomiast zawsze istotne jest to, że jeżeli jesteśmy w stanie wygenerować sobie dane, to bardzo dużym plusem takiej generacji jest to, że bardzo precyzyjnie wiemy, w którym miejscu coś w tym danych się pojawia i na podstawie tej informacji możemy tworzyć algorytmy, oceniać je i w jakiś sposób walidować, nawet w przypadku brakujących danych. Tak że to chyba tyle. Bardzo dziękuję.</u>
<u xml:id="u-1.69" who="#BartłomiejPejo">Proszę o zabranie głosu profesora Politechniki Śląskiej pana Krzysztofa Wodarskiego, którego prelekcja będzie dotyczyć optymalizacji planów produkcyjnych z wykorzystaniem AI.</u>
<u xml:id="u-1.70" who="#KrzysztofWodarski">Chciałbym na samym początku wyjaśnić, że optymalizacja planów produkcyjnych z wykorzystaniem artifictional intelligence właściwie wzięła się stąd, że zupełnie niedawno, w listopadzie zakończyliśmy projekt, który nazywał się „Prace badawczo-rozwojowe dotyczące opracowania i zastosowania algorytmu genetycznego w celu optymalizacji zarządzania produkcją”. Projekt był realizowany 2 lata w konsorcjum z firmą Kotrak, która jest takim dużym przedsiębiorstwem, które zajmuje się systemami ERP, wdrażaniem tych systemów i utrzymaniem. Ponieważ firma poszukiwała pewnego nowego modelu biznesu po prostu poprosiła nas o wsparcie, abyśmy jej pomogli.</u>
<u xml:id="u-1.71" who="#KrzysztofWodarski">Oczywiście na Wydziale Organizacji i Zarządzania to jest właśnie nasz obszar. Nauki o zarządzaniu zajmują się praktycznym zastosowaniem wielu metod. Tutaj postanowiliśmy wraz z moim zespołem składającym się z 7 osób – to są nie tylko osoby zajmujące się naukami o zarządzaniu jakości, ale przede wszystkim mamy w naszym gronie matematyka, informatyka… Zatem warto na to zwrócić uwagę.</u>
<u xml:id="u-1.72" who="#KrzysztofWodarski">Co było celem wdrożenia czy tego projektu? Celem było przede wszystkim opracowanie i zweryfikowanie, wdrożenie zintegrowanego rozwiązania wspomagającego planowanie i harmonogramowanie produkcji bazującego na algorytmie genetycznym. Dlaczego algorytm genetyczny? Bo to jest jedna z metod po prostu służących optymalizacji. Staraliśmy się zbudować wraz z firmą Kotrak bardzo praktyczne rozwiązanie, które polegało na tym, aby do praktyki zarządzania, do praktyki przemysłowej wdrożyć właśnie takie rozwiązanie, które będzie w dużej mierze odpowiadało na potrzebę szybkiego planowania i szybkiej zmiany planów produkcyjnych w przedsiębiorstwach, które mają bardzo dużo różnego rodzaju albo bardzo duży asortyment produkcji. W ramach tego projektu staraliśmy się zbudować takie rozwiązanie, żeby z poziomu technologicznej gotowości na poziomie drugim, aż do praktycznie wdrożenia tego modelu w praktyce i to się wydarzyło.</u>
<u xml:id="u-1.73" who="#KrzysztofWodarski">Proszę państwa, dlaczego optymalizacja zarządzania produkcją? Nadrzędnym celem zarządzania produkcją jest znalezienie odpowiedzi na pytania: co, gdzie, kiedy, ile i jak wyprodukować. Teraz zarządzanie produkcją generalnie polega na przyjmowaniu decyzji związanych z procesami produkcyjnymi, tak aby otrzymane towary i usługi były produkowane zgodnie ze specyfikacją, w wymaganej ilości, zgodnie z harmonogramem i przy minimalnych kosztach. Jak widać naszych celów biznesowych tam jest wiele.</u>
<u xml:id="u-1.74" who="#KrzysztofWodarski">Problem polega tylko na tym, że na zarządzanie produkcją duży wpływ ma na przykład sytuacja przedsiębiorstw produkcyjnych, które muszą mieć szeroki asortyment swoich wyrobów, które – mało tego – ciągle modyfikują wyroby zgodnie z oczekiwaniami klienta. Pojawia się tutaj bardzo wiele zakłóceń w procesie produkcyjnym, jak na przykład jakieś awarie, brak operatora, tego typu rzeczy.</u>
<u xml:id="u-1.75" who="#KrzysztofWodarski">W związku z tym zagadnienie planowania wcale nie jest banalnym zagadnieniem, chociaż w dzisiejszych czasach bardzo wiele przedsiębiorstw rozwiązuje to w ten sposób, że mają wyspecjalizowanych planistów, którzy pracują na przykład w Excelu i przez kilka, kilkanaście godzin albo kilkadziesiąt godzin przygotowują tego typu plany produkcyjne na następny okres produkcyjny. W związku z tym wymyśliliśmy, jak wykorzystać właśnie algorytmy genetyczne do tego, aby można było jednym, jak to mówimy, kliknięciem myszki wybrać sobie inną automatyczną metodę planowania właśnie z wykorzystaniem algorytmów genetycznych.</u>
<u xml:id="u-1.76" who="#KrzysztofWodarski">Muszę państwu powiedzieć, że tu jest taka opcja, albo robimy to ręcznie, albo z wykorzystaniem algorytmu. Co się pokazało? Jakie są tutaj korzyści zastosowania algorytmów? Otóż w większości przypadków nasz algorytm po prostu dawał rozwiązania lepsze niż wskazane przez pracowników odpowiedzialnych za ułożenie harmonogramów przedsiębiorstwa. Przede wszystkim mówimy tutaj z punktu widzenia, że szybciej realizujemy harmonogramy, czasy realizacji są krótsze. Zresztą, posługując się innymi kryteriami optymalizacji również można znaleźć lepsze rozwiązania. Nawet przedstawione na tych różnych naszych rysunkach tak zwane gorsze rozwiązania mogą być pomocne planistom w ręcznym dopracowaniu harmonogramów produkcji, a zatem mogą być narzędziem wstępnej analizy danych.</u>
<u xml:id="u-1.77" who="#KrzysztofWodarski">Po drugie, czas przygotowania harmonogramu produkcji przy użyciu algorytmów genetycznych był zasadniczo krótszy, aniżeli czas poświęcony na tę czynność przez planistę. Otóż w przypadku algorytmów genetycznych czas realizacji wynosił około 10 minut już przy 20 uruchomieniach algorytmu, podczas gdy czas przygotowania harmonogramu produkcji przez planistów wynosi, tak jak wspominałem, od kilku do kilkudziesięciu godzin. To jest zasadnicza różnica pomiędzy działaniem tego, a właściwe efekty pracy tych algorytmów są lepsze.</u>
<u xml:id="u-1.78" who="#KrzysztofWodarski">Zbadaliśmy również poziom zadowolenia, bo zajmujemy się tutaj również zarządzaniem. Jednym z aspektów zarządzania jest również zadowolenie naszych klientów, satysfakcja naszych klientów. Zbadaliśmy to w różnych aspektach, ale ogólna ocena była tutaj bardzo pozytywna, ponieważ użycie algorytmów poprawiło po prostu sprawność działania całej organizacji. To właściwie jest tyle o tym projekcie. Bardzo się cieszę, że byłem kierownikiem z ramienia Politechniki Śląskiej naszego zespołu. Projekt jest już dzisiaj wdrażany. Już są pierwsze wdrożenia na rynku i jest to dla nas ogromna satysfakcja, że mogliśmy działać razem z firmą informatyczną.</u>
<u xml:id="u-1.79" who="#KrzysztofWodarski">Natomiast, jeżeli troszeczkę wrócilibyśmy jednak do podstaw nauk o zarządzaniu, to właściwie można powiedzieć tak, że jest kilka tego typu problemów. Otóż, w jaki sposób wykorzystujemy metody sztucznej inteligencji, czy jest możliwa współpraca menadżera i sztucznej inteligencji i czy technologie zastąpią człowieka w zarządzaniu. Czy komputery mogą być odpowiedzialne za zarządzanie? To jest też dość ciekawe zagadnienie. Przede wszystkim czy możemy zaufać sztucznej inteligencji? Na ostatnie pytanie raczej będzie odpowiadała pani doktor Ida Skubis, więc pominę ostatnie pytanie.</u>
<u xml:id="u-1.80" who="#KrzysztofWodarski">Natomiast, chciałbym jednak opowiedzieć państwu parę rzeczy tutaj o pewnych zastosowaniach, które już wcześniej miały u nas zastosowanie. Na przykład, jak wykorzystanie metod sztucznej inteligencji, a właściwie sztucznych sieci neuronowych w utrzymaniu systemów ICT nadzorujących pracę systemów technicznych. To była praca doktorska pana doktora Gościniaka. Rzecz polegała na tym, że przecież systemy techniczne, szczególnie na przykład infrastruktura krytyczna, na przykład długie rurociągi albo platformy wiertnicze są nadzorowane przez systemy ICT. To znaczy wszystkie sensory i portale, które są tam zainstalowane, są nadzorowane, sygnały są przetwarzane i przesyłane przez platformy operatorów tych systemów. Akurat pan Gościniak był pracownikiem wtedy w firmie Cisco i na podstawie pewnych doświadczeń właśnie z nadzorowania tych systemów technicznych udało się zbudować taką sieć neuronową i ją wytrenować, aby można było nadzorować i we właściwy sposób podejmować decyzje o utrzymaniu tych systemów. Chodzi o to, że w systemach tego typu pojawiają się zdarzenia, które mogą normalnie zakłócać pracę tego systemu, trzeba zakłócenia analizować i we właściwy sposób podejmować decyzje.</u>
<u xml:id="u-1.81" who="#KrzysztofWodarski">Oczywiście, mamy też pewne doświadczenia w optymalizacji zmiennych predykcyjnych w sztucznych sieciach neuronowych, podczas na przykład prognozowania cen różnego rodzaju surowców, tutaj mówimy cen do produkcji energii. Udało nam się również w ubiegłym roku złożyć aplikację grantową na koncepcję cyfrowego asystenta klienta urzędu miejskiego. Niestety aplikacja nie zyskała aprobaty, ponieważ cała alokacja finansowa w NCBiR z tego programu strategicznego została zdjęta. Natomiast chcieliśmy zastosować właśnie pewne rozwiązania, jak sztuczne inteligencje czy blockchain, czy technologie kognitywne do obsługi klienta urzędu gminy przez opracowanie właśnie takiego rozwiązania wykorzystujące te technologie. Bardzo ciekawa rzecz, ponieważ ona generalnie jeszcze, gdybyśmy ją wyposażyli w uczenie maszynowe, to można by rzeczywiście i zrobić sprawniejsze procesy obsługi klienta, ale również przede wszystkim poprawić chociażby komunikację, ponieważ platforma miała być platformą przenośną i miała być wyposażona w pewne chatboty, które na przykład mówią nie tylko z klientem urzędu miejskiego w języku polskim, ale na przykład w języku śląskim albo w języku ukraińskim. W związku z tym mieliśmy tego typu ambitne plany. U nas na Śląsku obsługa w języku śląskim wydaje się jest dość istotną sprawą.</u>
<u xml:id="u-1.82" who="#KrzysztofWodarski">Proszę państwa, wykorzystanie sztucznej inteligencji, oczywiście przynajmniej w naszym przekonaniu, daje nam pewne możliwości, na przykład w zakresie przetwarzania danych czy automatyzacji procesów, czy analizie, tworzenia różnych analiz, prognoz czy obsługi klienta, czy wykorzystywania różnych modeli predykcyjnych i to oczywiście jest. Mamy tutaj pełną świadomość, że właściwie nie da się uciec od wykorzystania metod sztucznej inteligencji w zarządzaniu.</u>
<u xml:id="u-1.83" who="#KrzysztofWodarski">Teraz problem, czy jest możliwa współpraca menedżera i sztucznej inteligencji? Tak, pewnie tak, jeżeli potraktujemy to w kategoriach uzupełniania pewnych kompetencji, wpływania na nasze innowacje i rozwój albo efektywność i wydajność. Kiedy formułowałem to pytanie to też, podobnie jak jeden z moich szanownych przedmówców, zwróciłem uwagę na jedną rzecz, sformułowałem je w takich kategoriach, czy jest możliwa współpraca. Właśnie problem polega na tym, że nadajemy sztucznej inteligencji formę osobową. Zaczynamy ją traktować w kategoriach osoby. To nie jest przypadkowe, ponieważ właściwie zaczynamy iść w zarządzaniu w tym kierunku. To jest bardzo ciekawe.</u>
<u xml:id="u-1.84" who="#KrzysztofWodarski">Oczywiście na razie są to pewne nowinki technologiczne, myślę tutaj na przykład o robocie Mika, który został zastosowany w jednej z fabryk w Mikołowie i mamy tutaj na przykład właśnie wiele autonomicznych robotów, w tym humanoidalne, mamy również i wyposażamy te urządzenia w różne systemy kognitywne, różne technologie kognitywne, systemy rozpoznawania twarzy, rozpoznawania emocji, systemy komunikacji w czasie rzeczywistym, systemy generacji mowy, transmisję i przetwarzanie danych w czasie rzeczywistym czy sprzężenia z innymi urządzeniami w ramach tego, co nazywamy internetem rzeczy.</u>
<u xml:id="u-1.85" who="#KrzysztofWodarski">Popatrzcie państwo, wyposażyliśmy te technologie w umiejętności. Wyposażyliśmy je w cechy człowieka. Zatem powinniśmy je nazywać dalej w sensie osobowym czy nie? To jest bardzo ciekawe pytanie. Pytanie, czy rzeczywiście jesteśmy na tej drodze, żeby zacząć zastępować człowieka w zarządzaniu? Ale to już jest pytanie na inną sesję.</u>
<u xml:id="u-1.86" who="#KrzysztofWodarski">Natomiast chcę powiedzieć, że wszystkie technologie dzisiaj znamy, one są zastosowane, to już nie jest żadna nowinka, natomiast systemy jeszcze nie są wystarczające dobre, żeby zastąpić człowieka w zarządzaniu. Za to ich doskonalenie się odbywa z ogromną dynamiką i warto o tym pamiętać, ponieważ jak wczoraj rozmawialiśmy o tym na sesji, dzisiaj systemy AI mają gdzieś 2 lata, mówimy o generatywnych systemach, natomiast za chwileczkę będą miały dużo więcej. Dziękuję bardzo.</u>
<u xml:id="u-1.87" who="#BartłomiejPejo">„Etyka sztucznej inteligencji” to ostatni z cyklu referatów, będących wstępem i inspiracją do dyskusji. Wygłosi go pani doktor inżynier Ida Skubis. Bardzo proszę, pani doktor.</u>
<u xml:id="u-1.88" who="#IdaSkubis">Na początek definicja, co to jest przede wszystkim etyka sztucznej inteligencji. To zbiór zasad, które mają zapewnić odpowiedzialne wykorzystanie i rozwój sztucznej inteligencji. W kwietniu 2018 r. Komisja Europejska przedstawiła strategię dotyczącą sztucznej inteligencji i jej rozwoju, której wytyczne zostały opublikowane w tak zwanej białej księdze „White Paper” w kwietniu 2019 r. To co państwo widzicie na ekranie, to jest 7 głównych filarów, na których mają się opierać zasady etyki sztucznej inteligencji, w tym przewodnia i nadzorcza rola człowieka, techniczna solidność i bezpieczeństwo, ochrona prywatności i zarządzanie danymi, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, dobrostan społeczny i środowiskowy oraz odpowiedzialność. To jest 7 głównych filarów.</u>
<u xml:id="u-1.89" who="#IdaSkubis">Wszyscy państwo słyszeliście o AI Act, więc nie będę się w ten temat zagłębiać. AI Act został zatwierdzony przez Parlament Europejski i w dokumencie tym wyróżnia się 4 poziomy ryzyka dla systemów sztucznej inteligencji. Idąc od dołu – minimalne lub zerowe ryzyko, ograniczone, wysokie i niedopuszczalne. Oczywiście wszystkich zawsze najbardziej interesuje to, co jest niedozwolone i niedopuszczalne. Systemy stwarzające niedopuszczalne ryzyko, takie jak na przykład zagrażające bezpieczeństwu ludzi, naszej egzystencji, naszym prawom, czyli na przykład są to systemy klasyfikujące ludzi na podstawie naszego zachowania lub osobowości, takie jak na przykład automatyczna identyfikacja biometryczna na podstawie skanu siatkówki oka celem określenia rasy czy orientacji seksualnej, albo na przykład rozpoznawanie twarzy. To będzie zabronione, niedozwolone.</u>
<u xml:id="u-1.90" who="#IdaSkubis">Drugi etap to są systemy wysokiego ryzyka, które są wykorzystywane w infrastrukturze krytycznej. Tutaj jest podział na dwie główne grupy, ale nie będę się w to zagłębiać, ponieważ nie mamy na to czasu. Systemy stwarzające ograniczone ryzyko, to co już było dzisiaj wielokrotnie powtarzane, takie jak chatboty czy generatywna sztuczna inteligencja, między innymi CzatGPT, wszystkie treści wygenerowane, czy to będą obrazki, czy to będą treści wygenerowane przez sztuczną inteligencję będą musiały zostać oznaczone jako wygenerowane przez AI. Ostatnie, systemy o minimalnym ryzyku, czyli na przykład gry, filtry antyspamowe, które mogą być używane.</u>
<u xml:id="u-1.91" who="#IdaSkubis">To co mnie interesuje w moich badaniach naukowych, przede wszystkim to są roboty ze sztuczną inteligencją, ponieważ pracuję na Wydziale Organizacji i Zarządzania, to przede wszystkim roboty analizuję w kontekście zarządzania i etyki. Stawiam główny nacisk na human-centric approach, czyli to jest sztuczna inteligencja ukierunkowana na człowieka, bo tworząc, stwarzając, wdrażając wszystkie systemy, programy naszym priorytetem jest to, aby sztuczna inteligencja służyła, pomagała człowiekowi, a nie szkodziła.</u>
<u xml:id="u-1.92" who="#IdaSkubis">W tym kontekście razem właśnie z profesorem Wodarskim zajmujemy się taką tematyką jak autonomia robotów, czyli jak daleko roboty mogą się posunąć w procesach decyzyjnych. To jest powiązane z nadzorczą rolą człowieka, czyli kontrolą, w jakich momentach człowiek ma ingerować w decyzje podejmowane przez robota, interakcje człowiek – robot, oczywiście znowu powiązane z dwoma poprzednimi, czyli czy chcemy współpracować z robotami i w to, jak ta współpraca przebiega. Odpowiedzialność – bardzo ważny element, czyli kto ponosi odpowiedzialność za ewentualne błędy. Ochrona danych i bezpieczeństwo, również nierozerwanie związane z pozostałymi.</u>
<u xml:id="u-1.93" who="#IdaSkubis">Tutaj pan profesor Wodarski już wcześniej wspomniał, ale bardziej o wykorzystywaniu sztucznej inteligencji, czyli współpraca sztucznej inteligencji z menadżerami czy menadżerowie, którzy współpracują ze sztuczną inteligencją. Chciałabym krótko powiedzieć na temat robotów na stanowiskach menadżerskich właśnie, czyli nie współpracujących, tylko o robotach, które pełnią funkcje zarządcze. Mają oczywiście kilka zalet, czyli przede wszystkim szybkie przetwarzanie danych, pozwalające na efektywne uwzględnienie obszernych informacji w procesach decyzyjnych. Robią to dużo szybciej niż ludzie i efektywniej. Roboty mogą przewyższać ludzi w przydzielaniu zadań i badania pokazują także, że ludzie są skłonni scedować uprawnienia kontrolne na roboty. Oczywiście pod warunkiem, że ostateczną decyzję podejmuje człowiek, czyli znowu najważniejsza jest nadzorcza rola człowieka. Wtedy chętnie współpracujemy z robotami.</u>
<u xml:id="u-1.94" who="#IdaSkubis">Jakie są ograniczenia robotów na stanowiskach menedżerskich? Przede wszystkim brak celu. Jako ludzie wyznaczamy sobie cele – chcę zrobić habilitację, chcę pojechać na wakacje w tym roku do Hiszpanii, roboty nie mają celu. Roboty mają cel zaprogramowany przez człowieka. To my im nadajemy cel.</u>
<u xml:id="u-1.95" who="#IdaSkubis">Intuicja, wyobraźnia i doświadczenie, jako ludzie oczywiście często bazujemy na naszych doświadczeniach, na naszej wyobraźni i na intuicji. Oczywiście mamy rational approach, czyli zarządzanie przez racjonalne podejście. Mamy zarządzanie przez alternatywy i wybieramy albo to racjonalne podejście, gdzie bazujemy na danych statystykach lub zarządzanie przez intuicję, gdzie bazujemy na naszych doświadczeniach, na naszej intuicji, bo często na przykład nie mamy czasu, pracujemy pod presją czasu. Roboty tego nie posiadają, mogą bazować tylko na danych, które mają. Emocje, ciekawość i poczucie humoru, oczywiście, odpowiedzialność – o tym też jeszcze będzie za chwilkę i wyzwania związane z osiągnięciem inteligencji ogólnej.</u>
<u xml:id="u-1.96" who="#IdaSkubis">To, co już profesor Wodarski też tutaj krótko wspomniał, roboty humanoidalne CEO. Nie wiem, czy państwo słyszeliście o tej pierwszej na górze Tang Yu. Tang Yu pracuje w firmie Netdragon Websoft w Chinach. Jest to robot wirtualny, czyli wyświetla nam się tylko na ekranie. Tutaj państwo też macie kilka głównych punktów czym się Tang Yu zajmuje. Pod spodem bardzo ciekawe, właśnie to co już pan profesor Wodarski wspomniał, Mika. Myślę, że to jest akurat bardzo ważne dla nas, jako dla Polski, ponieważ Mika jest 20 km od nas w Mikołowie, czyli rzut beretem i pełni stanowisko CEO firmie Dictador, czyli producenta luksusowych rumów. Być może państwo słyszeliście, bo we wrześniu 2023 r. we wszystkich mediach mówiono o Mice i we wszystkich językach można było przeczytać, także w internecie.</u>
<u xml:id="u-1.97" who="#IdaSkubis">Jest kilka dokumentów, bo zmierzam do tematu etyki sztucznej inteligencji. Oczywiście etyka sztucznej inteligencji jest bardzo obszerna. Jest wiele dokumentów, właśnie propozycje regulacji, wytycznych, wskazówek, które cały czas powstają. Ale przede wszystkim to są takie regulacje bardzo ogólne do wszystkich, czyli do wszystkich programów, systemów itd. Pamiętajmy, że sztuczna inteligencja, zależy czy jest to smart city, czy są to na przykład roboty społeczne, wymagają osobnych regulacji, bo każde z tych dziedzin, dyscyplin ma odrębną charakterystykę. Na przykład dokument, który w moich badaniach jest bardzo interesujący, to jest właśnie dokument wydany w 2016 r. na temat robotyki. Dokument ten bada koncepcję przyznawania osobowości prawnej autonomicznym robotom. To się też już dzisiaj pojawiło w prezentacjach.</u>
<u xml:id="u-1.98" who="#IdaSkubis">Po pierwsze, z jednej strony dokument ten podaje w wątpliwość czy maszyny pozbawione świadomości, uczuć, intuicji, myśli czy nawet niezależnej woli mogą być uznane za w pełni autonomiczne podmioty prawne, a z drugiej strony rozważa konsekwencje postrzegania robotów jako osób elektronicznych podczas podejmowania autonomicznych decyzji lub interakcji z osobami trzecimi. Czyli właściwie, że roboty powinny ponosić odpowiedzialność za swoje błędy, ale oczywiście to ten drugi punkt też jest od razu wykluczony w tym samym dokumencie, stwierdza się, że przez najbliższe 10 do 15 lat oczywiście roboty nie są w stanie odpowiadać przed sądem za swoje błędy.</u>
<u xml:id="u-1.99" who="#IdaSkubis">Projekt, do którego złożyliśmy wniosek, czyli projekt na temat etyki sztucznej inteligencji w ramach grantów „Horyzont Europa” razem z profesorem Krzysztofem Wodarskim, jest to projekt, który nazwaliśmy NavigAItor, oczywiście AI w środku. Jak państwo widzicie w pierwszej linijce mamy tutaj Human-Centered AI, czyli to najważniejsze, sztuczna inteligencja ukierunkowana na człowieka, czyli ta, która ma nam pomagać, służyć, a nie szkodzić. W projekcie tym jesteśmy właściwie w gronie 14 partnerów. Koordynatorem głównym jest Uniwersytet Techniczny w Monachium, który zależy, jak spojrzeć, na które rankingi, w jednych mieści się w 30 najlepszych uczelni na świecie, w drugim w 50. To właśnie oni będą głównym koordynatorem. Oprócz 14 partnerów będą współpracowali z nami, o ile oczywiście otrzymamy ten projekt, mamy głęboką nadzieję, będą współpracowali z nami eksperci z różnych kontynentów, między innymi w Nowej Zelandii, z USA, a także tutaj z Europy, jeszcze ktoś tam dołączył do nas z Azji w ostatnim momencie.</u>
<u xml:id="u-1.100" who="#IdaSkubis">Jakie są cele tego projektu? Przede wszystkim pkt 1 – rozwój teorii dotyczącej regulacji etycznych dla badań i rozwoju AI i będziemy analizować dokumenty dotyczące etyki sztucznej inteligencji, a także opracowywać wytyczne oparte na ludzkich procesach poznawczych i zachowaniach, wraz z grupą ekspertów, którzy z nami będą współpracować, na podstawie studiów przypadków. Tutaj mamy takie trzy główne – generatywna sztuczna inteligencja w edukacji, technologia rozpoznawania emocji w badaniach nad zdrowiem psychicznym oraz trzecie – rozpoznawanie emocji w badaniach nad pojazdami autonomicznymi.</u>
<u xml:id="u-1.101" who="#IdaSkubis">Mamy wyznaczone cztery główne cele, oczywiście projekt jest przewidziany na 3 lata, więc mamy wiele working packages, ale to są cztery główne cele. Drugi – rozwój zestawu narzędzi do współpracy międzynarodowej w badaniach i rozwoju AI nowej generacji. Mamy na celu stworzenie międzynarodowego zestawu narzędzi wspierającego współpracę w ERA i poza nią, integrując wyniki projektu NavigAItor oraz narzędzia uzupełniające z projektów i organizacji takich, jak na przykład UNESCO. Trzeci punkt – tworzenie innowacyjnych materiałów szkoleniowych odzwierciedlających opracowane wytyczne i zestaw narzędzi dla odpowiednich interesariuszy na całym świecie. Czyli tu będziemy tworzyć materiały szkoleniowe, które będą dostępne na różnych platformach, m.in. na stronie naszego projektu plus na YouTube. Czwarty punkt – budowanie wiarygodnej, zrównoważonej, multidyscyplinarnej i międzynarodowej sieci do wspólnego rozwiązywania problemów etycznych AI. Mamy na celu utworzenie takiego konsorcjum międzynarodowego właśnie interdyscyplinarnego, który będzie ze sobą współpracował, z uczelni i przemysłu i będziemy oprócz tego, że w trzecim punkcie będziemy przygotowywać materiały szkoleniowe, w czwartym będziemy prowadzić te szkolenia.</u>
<u xml:id="u-1.102" who="#IdaSkubis">Coś, co jest za to pewne, otrzymałam stypendium pod patronatem Marii Skłodowskiej-Curie też w ramach „Horyzont Europa”, więc przyszły rok akademicki 2024/2025 spędzę we Francji. W tym projekcie będę właśnie analizować wytyczne, propozycje regulacji, wskazówki UE, czyli Unii Europejskiej dotyczące etyki sztucznej inteligencji oraz będę badała porównanie podejść do etyki sztucznej inteligencji w wybranych krajach Unii Europejskiej. Jako, że mam tylko jeden tytuł doktora, chociaż tu bardzo dziękuję, bo ktoś mnie przestawił, że jestem doktorem inżynierem, więc bardzo dziękuję, bo zawsze marzyłam też, żeby być techniczna, ale mam tylko jeden doktorat i cztery stopnie magistra z 4 języków obcych – angielski, niemiecki, francuski, hiszpański, więc stwierdziłam, że w końcu wypadałoby wykorzystać znajomość tych wszystkich języków obcych. Napisałam projekt, że będę analizowała wszystkie regulacje, właśnie propozycje regulacji i wytycznych w 5 językach obcych, łącznie z językiem polskim. Projekt został zaakceptowany i teraz w przyszłym roku będę to musiała jakoś zrealizować w ciągu roku, więc nie wiem, czy się cieszyć, czy raczej martwić.</u>
<u xml:id="u-1.103" who="#IdaSkubis">Teraz, co interesuje przede wszystkim nas jako Polaków, czyli Polskę, nasze badania nad etyką sztucznej inteligencji. W celu rozwinięcia, właściwie pełnego wykorzystania potencjału sztucznej inteligencji należy przede wszystkim elastycznie i stale reagować na rozwój technologii przez ustanowienie przyjaznego prawodawstwa w zakresie badań i rozwoju. Drugie, zadbać o swoją zdolność do zachowywania wysoko wyspecjalizowanej kadry z obszaru AI oraz przyciągania specjalistów z zagranicy, przedsiębiorców, badaczy i ekspertów przy jednoczesnym utrzymaniu wysokiego poziomu ochrony praw podstawowych człowieka. Przede wszystkim w Polsce tworzymy instytuty, tworzymy grupy badawcze zajmujący się etyką sztucznej inteligencji, ale te badania są na dużo wyższym poziomie na Zachodzie, dużo bardziej zintensyfikowane, więc należy korzystać z wiedzy naszych kolegów z zagranicy, zapraszać ich do współpracy i wykorzystać ten potencjał. Dziękuję bardzo.</u>
<u xml:id="u-1.104" who="#BartłomiejPejo">Szanowni państwo, na tym zakończyliśmy referaty. Bardzo serdecznie dziękuję wszystkim referującym za przedstawienie tych niezwykle interesujących tematów.</u>
<u xml:id="u-1.105" who="#BartłomiejPejo">Otwieram dyskusję.</u>
<u xml:id="u-1.106" who="#BartłomiejPejo">Czy ktoś z państwa chce zabrać głos? Jeszcze taka moja uwaga, bardzo proszę, abyśmy oficjalną dyskusję ograniczyli do możliwego minimum. Dyskusja oczywiście będzie możliwa, pan dziekan zaprasza również na kawę, herbatę w kuluarach, będzie możliwość zadawania pytań i dalszej dyskusji. Natomiast w tej chwili, bardzo proszę, kto z państwa chciałby zabrać głos?</u>
<u xml:id="u-1.107" who="#BartłomiejPejo">W tym momencie, panowie posłowie, proszę przenieśmy się do drugiego stołu. Bardzo proszę o zgłoszenia. Szanowni państwo, bardzo proszę o zgłoszenia, głos w dyskusji, pytania do państwa, którzy referowali. Bardzo proszę, panie profesorze.</u>
<u xml:id="u-1.108" who="#JanKaźmierczak">Jeżeli polska nauka nie uzyska – i nie mówię o finansowym wsparciu – tylko właśnie tego zaplecza legislacyjnego, które będzie nas nie tyle ograniczało, co pomagało w prowadzeniu badań, także w obszarze, o którym tutaj mówimy, bardzo ważnym i krytycznym wręcz, dziejącym się na naszych oczach i widzianym bardzo różnie… Przecież na uczelniach pojawiają się pomysły na przykład zakazywania używania ChataGPT. Kiedyś pytałem kolegę, który coś takiego proponował, jak to egzekwować. Ale nieważne, to są moim zdaniem akurat pomysły z serii tych, o których mówiliśmy wczoraj, czyli ten facet z czerwoną chorągiewką przed samochodem. Natomiast, tak jak mówię, bez dobrej komunikacji pomiędzy ustawodawcą a podmiotami, które są od legislacji z natury rzeczy uzależnione, to się nam wszystko nie uda.</u>
<u xml:id="u-1.109" who="#JanKaźmierczak">W związku z tym gorący apel do państwa posłów, ale także do naszych młodszych, starszych i takich najstarszych, jak ja, koleżanek i kolegów, żeby o tym aspekcie pamiętać. Bardzo dziękuję pani doktor Skubis za prezentację. Natomiast powtarzam raz jeszcze – proszę o pomoc i wsparcie. Dziękuję bardzo.</u>
<u xml:id="u-1.110" who="#JanKaźmierczak">Przy okazji, proszę państwa, to o czym powiedział pan przewodniczący, czyli kawa itd, tutaj korytarzykiem w prawo i jest takie pomieszczenie, które nazywamy „Akwarium” i tam to wszystko jest przygotowane. Po zakończeniu serdecznie państwa wszystkich zapraszam.</u>
<u xml:id="u-1.111" who="#BartłomiejPejo">Proszę, panie pośle.</u>
<u xml:id="u-1.112" who="#MarekSikora">Co do empatii, to takie badania były prowadzone. Tu właśnie wspomniany już przeze mnie profesor Duch wiele razy o tym mówił, że były prowadzone badania właśnie w opiece medycznej, może nie takiej ciągłej nad osobami starszymi na przykład, ale gdzieś jakieś wizyty lekarskie były symulowane, to sztuczna inteligencja wykazywała większy poziom większy poziom empatii niż lekarze. Oczywiście był oddzielny weryfikator tej empatii, czyli było to tak porządnie metodycznie zrobione. Nie wiem, może ktoś chce coś więcej dodać. Dziękuję.</u>
<u xml:id="u-1.113" who="#JanKozak">Co do empatii, to jest po prostu wyuczona. Bo tam zapewne jest cel, tak jak państwu mówiłem, nagradzamy, jak człowiek wychodzący będzie szczęśliwy, to nagrodzimy. CzatGPT tak troszeczkę ma na celu uszczęśliwić pytacza. Nie wiem czy mogę powiedzieć „pytacza”, ale osobę pytającą.</u>
<u xml:id="u-1.114" who="#ArturDanielGierada">Tu mi się na przykład kojarzy system zbrojny. Wiemy dzisiaj, że coraz większą rolę w konfliktach odgrywają drony. To, co mówiliście, panowie, wcześniej, zresztą mówiła też pani doktor, że na końcu tego łańcucha dążymy do tego, żeby człowiek był osobą, która naciska ostatni guzik. Ale już dzisiaj w branży zbrojeniowej, w konwencjach oczywiście, które przestrzegają zazwyczaj tylko państwa demokratyczne, jest tak, że korzystając z każdej broni, również różnej inteligencji i dronów, które już rozpoznają, już można je zaprogramować, że gdzieś lecą i zabijają, to człowiek musi nacisnąć ostatni guzik.</u>
<u xml:id="u-1.115" who="#ArturDanielGierada">Rozmawiałem z jedną z osób z branży, która mówi, że dla nas jest to mniej efektywne od tych krajów, które tego nie respektują, bo tłumaczyła mi, jak szybko drony są oczywiście wykrywane, jak muszą zmieniać w sekundzie ileś razy częstotliwość i decyzja człowieka na końcu też specjalnie jakoś tam ograniczona, ale zawsze zwiększa ryzyko neutralizacji tego drona. Pytanie, czy drona da się, być może ktoś tak brzydko go zaprogramuje, że on później może nie służyć człowiekowi, tylko może przeciwko człowiekowi się obrócić. Myślę, że wszyscy się tego boimy, bo często jak rozmawiam z ludźmi z państwa środowiska, naukowcami, przekonują o tym, że sztuczna inteligencja może być tylko narzędziem, którą albo dobrze, albo źle zaprogramujemy i jak ją wykorzystamy, że to zależy tylko od nas, ludzi.</u>
<u xml:id="u-1.116" who="#ArturDanielGierada">Ale jeśli dzisiaj sztuczna inteligencja sama się uczy czy uczy się już też empatii, czy uczy się właśnie m.in. zabijania, to ta nauka wychodzi i ja nie wiem czy ją tak bardzo de facto filozoficznie może różnić od człowieka, bo wiemy, że dzisiaj sztuczna inteligencja naprawdę sama potrafi się uczyć. To jest ten przykład słynny z szachami, że dzisiaj nie trzeba wgrać pełnych roszad szachów i różnych sytuacji, tylko wystarczy wgrać zasady i komputer potrafi się tak szybko nauczyć, komputer wcześniej stworzony przez człowieka ogra każdego człowieka i mówimy tutaj oczywiście o sztucznej inteligencji, tej, która już w pewien sposób nazwijmy to w cudzysłowie trochę sama myśli.</u>
<u xml:id="u-1.117" who="#BartłomiejPejo">Jeszcze o głos prosił pan poseł. Bardzo proszę.</u>
<u xml:id="u-1.118" who="#MarekSikora">Odpowiadając jeszcze na wcześniejsze pytanie dotyczące wojska, to stwierdzam jednak, że Lem był wizjonerem, bo napisał książkę „Pokój na Ziemi”, gdzie jedna sztuczna inteligencja jednego kraju walczy z drugą sztuczną inteligencją drugiego kraju. Kwestie etyczne wydaje mi się, że zależą trochę od punktu widzenia, bo na przykład gdybyśmy projektowali jakieś… Bo my tak naprawdę w sztucznej inteligencji nie projektujemy algorytmów, tylko projektujemy to, jak się algorytm ma uczyć, a czego się algorytm nauczy to my tak do końca nie wiemy. Bo jakbyśmy wiedzieli, jak rozwiązać problem, to nam sztuczna inteligencja jest niepotrzebna, więc na pewno inaczej zabezpieczalibyśmy algorytm ataku drona w jakiś sposób, a na pewno inaczej robiliby to w chwili obecnej Ukraińcy. Oni mają stan wojny, więc być może byłoby tak, że korzyści przeważałyby straty. My na razie nie mamy tego problemu.</u>
<u xml:id="u-1.119" who="#JanKozak">Znowuż te obawy, zupełnie się tego nie obawiam, bo obecna sztuczna inteligencja jest po prostu konkretyzowana. OK, obawą jest, tak jak już też panowie wspomnieliście, jedna strona użyje i druga strona użyje, to jest zawsze gra o sumie zerowej tak naprawdę, ale my to mamy od lat. Przestępcy próbowali od lat coś robić, a policjanci próbowali od lat to wykrywać szybciej i analogicznie tutaj mamy problemy z atakami. OK, możemy z jednej strony używać sztucznej inteligencji do polepszenia ataków, mówię o cyberbezpieczeństwie, ale z drugiej strony używamy do tego, żeby wykrywać ataki, więc to zawsze będzie taka suma, gra o sumie zerowej.</u>
<u xml:id="u-1.120" who="#KrzysztofWodarski">Jeszcze jedna rzecz związana z użyciem metod sztucznej inteligencji czy w ogóle z taką generatywną sztuczną inteligencją, czymś takim dużym, nieogarniętym, jak to czasami mówimy. Natomiast myślę, że na razie ogarniamy to wszystko. Tak mi się przynajmniej wydaje. Istnieje zasadniczy problem i to jest właśnie problem, który wydaje mi się dla panów jest tutaj zasadniczy. To jest kwestia odpowiedzialności. Odpowiedzialność za użycie algorytmu, za zastosowanie algorytmu w określonych sytuacjach, chociażby w wojskowości. Wyobrażam sobie sytuację, że dron potrafi sam zadecydować, jeżeli namierzy cel, został odpowiednio… Jest to technicznie wykonalne, tak samo jak technicznie jesteśmy przygotowani do autonomicznych samochodów. W medycynie mamy bardzo wiele zastosowań. Problem polega tylko na jednym, na odpowiedzialności, w szczególności tej prawnej odpowiedzialności i wydaje mi się, że to będzie zasadnicza sprawa do rozwiązania. Nad tym trzeba mocno popracować. Nad technologią popracujemy, natomiast kwestie dotyczące prawa to jest niezwykle ważna rzecz. Dziękuję bardzo.</u>
<u xml:id="u-1.121" who="#AleksandraKuzior">Na co chciałabym tutaj zwrócić uwagę, to na to, że na Wydziale Organizacji i Zarządzania kształcimy studentów na kierunku Cognitive Technologies. To są studia utworzone także dzięki realizacji projektu z Narodowej Agencji Wymiany Akademickiej i jest to połączenie tradycyjnej kognitywistki z technologiami kognitywnymi, czyli takimi technologiami, które imitują, zastępują już te podstawowe kompetencje człowieka, percepcyjne, decyzyjne i poznawcze. Idąc śladem za tym projektem utworzyliśmy w zeszłym roku także kierunek „technologie kognitywne i media społecznościowe” i również właśnie to jest takie połączenie technologii kognitywnych opartych oczywiście na algorytmach sztucznej inteligencji ze wszystkimi aspektami humanistycznymi i etycznymi. Myślę, że dopiero takie właśnie połączenie kształcenia daje może nam namiastkę, że sztuczna inteligencja będzie wykorzystywana we właściwych celach. Dziękuję bardzo.</u>
<u xml:id="u-1.122" who="#WitoldWojciechCzarnecki">Myślę, panie przewodniczący, że bylibyśmy z tego bardzo zadowoleni jakby taki materiał do nas dotarł. To niejako po czasie, bo trzeba powiedzieć jasno, że zdolności percepcji każdego z nas są ograniczone. Jestem doświadczonym wykładowcą. Mówiłem wczoraj o tym, że dzisiaj bałbym się prowadzić wykłady po dwudziestoletniej przerwie. Mimo, że jeszcze próbuję z nauką jakiś kontakt trzymać, ale dwudziestoletnia przerwa wydaje mi się już nie daje mi żadnych szans. Nie wiem rzeczywiście czego studentów należy uczyć, mimo że mam dwudziestopięcioletnie doświadczenie jako wykładowca i dzisiaj bałbym się tego, ale wiedząc o naszych ograniczeniach, każdego z nas, prosiłbym o przygotowanie takiego materiału, jeżeli to byłoby oczywiście w waszym zasięgu. Bardzo dziękuję.</u>
<u xml:id="u-1.123" who="#BartłomiejPejo">Szanowni państwo, formalnie zapytam, czy jeszcze jest jakiś głos w dyskusji? Zachęcam do tego, żebyśmy rozmawiali w kuluarach. Musimy, tak jak pan profesor powiedział, przejść do czwartej władzy. Mamy konferencję prasową. W związku z tym pytanie, czy ktoś z państwa chciałby zabrać jeszcze głos?</u>
<u xml:id="u-1.124" who="#BartłomiejPejo">Jeśli nie, w takim razie zamykam dyskusję.</u>
<u xml:id="u-1.125" who="#BartłomiejPejo">Bardzo serdecznie dziękuję za gościnę tych dwóch dni, możliwość organizacji wyjazdowej Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii. Podkreślam nasze zainteresowanie państwa pracą. Zachęcam do tego, abyśmy tę współpracę podjęli i kontynuowali można powiedzieć, bo już ją, można też tak to określić, podjęliśmy wczoraj i dzisiaj. Zachęcam do tego, aby państwo profesorowie, państwo ze strony naukowej współpracowali z nami, bo oczywiście bardzo chętnie będziemy z państwa podpowiedzi i z państwa pracy naukowych korzystali. Raz jeszcze serdecznie dziękuję za gościnę.</u>
<u xml:id="u-1.126" who="#BartłomiejPejo">Zamykam dzisiejsze posiedzenie. Dziękuję bardzo.</u>
</div>
</body>
</text>
</TEI>
</teiCorpus>