text_structure.xml 21.8 KB
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
  <xi:include href="PPC_header.xml" />
  <TEI>
    <xi:include href="header.xml" />
    <text>
      <body>
        <div xml:id="div-1">
          <u xml:id="u-1.0" who="#GrzegorzBernardNapieralski">Otwieram posiedzenie podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów. Stwierdzam kworum. Witam posłów, członków podkomisji oraz członków Komisji Cyfryzacji i Innowacyjności Nowoczesnych Technologii.</u>
          <u xml:id="u-1.1" who="#GrzegorzBernardNapieralski">Bardzo serdecznie chciałbym powitać sekretarza stanu w Ministerstwie  Cyfryzacji pana ministra Dariusza Standerskiego wraz ze współpracownikami. Witam, panie ministrze, bardzo serdecznie. Bardzo serdecznie witam pana prezesa Urzędu Ochrony Danych Osobowych pana Mirosława Wróblewskiego wraz z zespołem. Dzień dobry, panie prezesie. Miło mi bardzo, że gości pan u nas. Witam przedstawicieli Urzędu Ochrony Konkurencji i Konsumentów, pana dyrektora Łukasza Wrońskiego, szefa Departamentu Ochrony Zbiorowych Interesów Konsumentów. Dzień dobry, panie dyrektorze. Również witam panią dyrektor. Pani dyrektor nie ma.</u>
          <u xml:id="u-1.2" who="#GrzegorzBernardNapieralski">Porządek dzisiejszego posiedzenia przewiduje zapoznanie się z informacją ministra cyfryzacji na temat regulacji zawartych w akcie w sprawie sztucznej inteligencji, tzw. AI Act, przyjętego przez Parlament Europejski 13 marca br. Czy są uwagi do porządku obrad? Nie widzę. Przystępujemy do realizacji porządku obrad.</u>
          <u xml:id="u-1.3" who="#GrzegorzBernardNapieralski">Bardzo proszę pana ministra Dariusza Standerskiego o zabranie głosu.</u>
          <u xml:id="u-1.4" who="#DariuszStanderski">Parlament Europejski przyjął rozporządzenie w sprawie sztucznej inteligencji.  Prognozujemy, że po zakończeniu całego procesu ustawodawczego na poziomie Unii Europejskiej, akt może zostać opublikowany pod koniec maja lub w czerwcu. Wtedy zacznie się bieg vacatio legis czasu do wejścia w życie tego aktu. Celem samego aktu nie jest uregulowanie technologii, ale uregulowanie zastosowań tej technologii i to w dość precyzyjnym, konkretnym zakresie. Sam akt dzieli systemy i modele sztucznej inteligencji na pięć kategorii. Gdzie należy wskazać przede wszystkim systemy zakazane, które po pierwsze, mogą bazować na ocenie społecznej, czyli social scoring, mogą wskazywać m.in. na emocje czy samopoczucie w naszym miejscu pracy czy na uniwersytecie, w szkole? Mogą wykorzystywać techniki podprogowe w kontekście dyskryminującym ze względu na wiek, płeć czy też niepełnosprawność oraz bazy danych, które będą wykorzystywane do rozpoznawania twarzy przez scrapping danych na przykład z monitoringu wizyjnego. Są to systemy zakazane bezpośrednio w rozporządzeniu i jak będziemy mówić o terminie wejścia w życie rozporządzenia, to są to te systemy, które najwcześniej będą musiały zniknąć, jeżeli pojawiają się na obszarze Unii Europejskiej.</u>
          <u xml:id="u-1.5" who="#DariuszStanderski">Systemy wysokiego ryzyka wprowadzone przez rozporządzenie obejmują między innymi produkty unijne, które są regulowane bezpośrednio na poziomie wspólnotowym, czyli na przykład wyroby medyczne, kosmetyki, samochody, zabawki dla dzieci. Również te systemy, które dokonują profilowania osób czy oceniają dostęp do świadczeń publicznych, na przykład uzależniają od wykorzystania danych, udzielenie kredytu, pożyczki, innych usług finansowych mają konkretne obostrzenia wskazane w rozporządzeniu, między innymi dotyczące zarządzenia ryzykiem, prowadzenie dokumentacji technicznej, wymóg nadzoru człowieka nad algorytmami w tym zakresie oraz współpracę z właściwymi organami. Poza tym są również systemy ograniczonego ryzyka, takie jak charboty czy systemy wsparcia niewykorzystujące danych profilowanych czy innych danych wrażliwych oraz systemy ogólnego przeznaczenia, które są dzisiaj też już coraz szerzej wykorzystywane. Również są oznaczone tak zwane pozostałe systemy i modele AI i tutaj też przewidujemy, że w ramach pozostałych modeli AI w miarę rozwoju tej technologii będą wydzielane w ramach nowelizacji pewnie aktu o sztucznej inteligencji w następnych latach kolejne kategorie modeli.</u>
          <u xml:id="u-1.6" who="#DariuszStanderski">Po kwestiach definicyjnych, co też jest ważne dla naszego prawodawstwa, rozporządzenie wskazuje na organy krajowe dotyczące między innymi nadzoru rynku w zakresie pojedynczego punktu kontaktowego współpracy z Komisją Europejską oraz organu, który przyjmuje zgłoszenia dotyczące naruszeń tegoż rozporządzenia. Organ notyfikujący, który będzie przygotowywał procedury do oceny wyznaczania i nienotyfikowania jednostek oceniających zgodność. Jednostki oceniające zgodność, które będą wykonywały rozporządzenie w zakresie zgodności z kategoriami, które wskazywałem, oraz wypełniania obowiązków przez właścicieli tych modeli. Dodatkowo również organ, który będzie odpowiadał za wprowadzanie piaskownic regulacyjnych.</u>
          <u xml:id="u-1.7" who="#DariuszStanderski">Kwestia organów, to tak jak w przypadku innych wdrożeń, które toczyły się wcześniej, toczą się obecnie, to jeden z najbardziej takich konkretnych, namacalnych punktów w dyskusji zawsze, dyskusji nad tym, które to powinny być organy na gruncie polskiego prawa, czy to powinny być istniejące organy, czy organy nowe, o czym też za chwilę powiem.</u>
          <u xml:id="u-1.8" who="#DariuszStanderski">Jeżeli chodzi o samo wdrożenie, zarówno na poziomie organów jak i kategoryzacji,  to zaczynamy dyskusję w Polsce bardzo wcześnie, ale już nie jesteśmy pierwsi, ponieważ mamy pionierów na przykład w postaci Hiszpanii, gdzie w zeszłym roku utworzono Agencję Nadzoru nad Sztuczną Inteligencją. Jest to agencja, która kieruje hiszpańskim ekosystemem sztucznej inteligencji i jest w trakcie tworzenia piaskownic związanych ze sztuczną inteligencją w Hiszpanii. Podobne procesy odbywają się również  w Irlandii, w Luksemburgu, Niderlandach, więc tutaj też zaczynają się wdrożenia na poziomie unijnym i prawdopodobnie te urzędy będą później dostosowywane do tego,  co zostanie ostatecznie uchwalone i opublikowane w Dzienniku Urzędowym Unii  Europejskiej.</u>
          <u xml:id="u-1.9" who="#DariuszStanderski">Na poziomie krajowym rozpoczęliśmy prekonsultacje dotyczące właśnie urzędów odpowiedzialnych za wykonywanie przyszłego aktu o sztucznej inteligencji. Zapraszam też, korzystając z tej okazji do zgłoszenia uwag w tym zakresie. Umyślnie nie wskazaliśmy żadnych propozycji, żadnych warunków brzegowych na tym etapie, ponieważ chcemy, żeby ta dyskusja nie zaczęła się od odniesienia się do konkretnego, nie chcemy tutaj powodować jakiegokolwiek skrzywienia perspektywy. Po prostu zadajemy otwarte pytanie, jak – jeżeli chodzi o strukturę administracyjną państwa – powinien wyglądać właśnie organ dotyczący nadzoru nad sztuczną inteligencją. Przeprowadziliśmy wcześniej wstępne konsultacje w ramach Grupy Roboczej Sztucznej Inteligencji GRAI. Mamy wyniki tych wstępnych konsultacji, ale pozwolą państwo, że nie będę na razie dzielił się tymi wynikami, żeby nie wpłynąć na proces otwartych prekonsultacji. Oczywiście  na piśmie przekażemy wyniki zarówno konsultacji w GRAI i prekonsultacji otwartych, jak tylko je opracujemy przekażemy je na piśmie.</u>
          <u xml:id="u-1.10" who="#DariuszStanderski">Natomiast chciałbym, żeby w ramach tych konsultacji zacząć już proponować konkretne punkty, zarówno jeżeli chodzi o organ, jak i jeżeli chodzi o pierwsze procedury,  w szczególności w zakresie systemów wysokiego ryzyka, bo przewidujemy, że tutaj może być dość sporo regulacji i to w wielu obszarach. Ponieważ systemy wysokiego ryzyka dotyczą zarówno edukacji, jak i ochrony zdrowia, jak i kwestii związanych z bezpieczeństwem. Wiele by wymieniać, co oznacza być może kompleksowe zmiany w szeregu ustaw. Dlatego chcemy porządnie wziąć się do pracy w tym zakresie i chcemy przeprowadzić cały, pełny proces konsultacji. Dlatego też chciałbym się zwrócić do pana przewodniczącego z uprzejmą prośbą, żebyśmy mogli regularnie spotykać się również na podkomisji  i też mówić o tym, w którym miejscu jesteśmy, bo też gorąco liczę na uwagi pań posłanek i panów posłów w tym zakresie. Będziemy chcieli konsultować te przepisy główne, czyli te, które mają wejść w życie po 24 miesiącach od opublikowania, co najmniej do sierpnia, września tego roku, ponieważ chcemy zamknąć proces konsultacji będąc pewnymi,  w którym kierunku iść, projektując konkretne przepisy. I żeby po zamknięciu tych konsultacji od października tego roku rozpocząć prace legislacyjne też dokładnie z pełną ścieżką rządową, a także z informowaniem pań posłanek i panów posłów o tych pracach, tak żebyśmy w przyszłym roku mogli też przeprowadzić ten proces wspólnie w Sejmie. Ponieważ nie chciałbym żebyśmy przyjmowali ten akt jako pierwsi w Unii Europejskiej. Chciałbym żebyśmy go przyjęli, tak żeby później już nie wracać z szybkimi nowelizacjami, bo o czymś zapomnieliśmy, czy coś pominęliśmy, jeżeli chodzi o to wdrożenie. Dodatkowo planujemy również uruchomienie kampanii informacyjnej i edukacyjnej  w zakresie wykorzystywania tego prawa. Ponieważ tak jak się przekonujemy w wielu wdrożeniach, jedna rzecz, to przyjąć projekt ustawy, druga rzecz, to stworzyć takie otoczenie, żeby po prostu ta ustawa nie była martwym prawem i żeby była po pierwsze, przestrzegana, po drugie, można było korzystać z mechanizmów, które są w tym zakresie.</u>
          <u xml:id="u-1.11" who="#DariuszStanderski">Natomiast w tej chwili jesteśmy w punkcie, w którym jeszcze wiele pytań nie doczekało się odpowiedzi, bo nie chcemy, żeby doczekały się odpowiedzi. Tak że jesteśmy otwarci na propozycje, jeżeli chodzi o kwestie struktury administracyjnej i w jaki sposób to ma zostać wykorzystane, także do wprowadzenia sprawnych procedur w tym zakresie. Jesteśmy też otwarci na dyskusję w zakresie wyzwań, które nie dotyczą wprost aktu  o sztucznej inteligencji, a będą stanowiły nowe pola, jeżeli chodzi o wykonywanie tego rozporządzenia, między innymi w zakresie ochrony danych osobowych, w zakresie zarządzania danymi, otwartości danych, tego w jaki sposób będziemy podchodzili do danych dostępnych, co też słyszymy i widzimy podczas dyskusji o wdrożeniu innych przepisów unijnych w formie projektu ustawy o zmianie ustawy o prawie autorskim.</u>
          <u xml:id="u-1.12" who="#DariuszStanderski">To wszystko są wyzwania, które będą wokół tego wdrożenia, bo mam też pełną świadomość, że jak zaczniemy to wdrożenie, to już nawet w dyskusji nad tą ustawą będzie wiele wniosków de lege ferenda i dlatego chciałbym, żeby te wnioski padały jak najwcześniej, żebyśmy byli gotowi do odpowiedzi na te wyzwania jak rozporządzenie w całości wejdzie w życie, a nie wtedy żebyśmy robili szybkie ścieżki legislacyjne, żeby nadrabiać jakiekolwiek zaległości. Bardzo serdecznie dziękuję za możliwość przekazania tych kilku informacji. Zarówno ja, jak i mój zespół jesteśmy do dyspozycji.</u>
          <u xml:id="u-1.13" who="#GrzegorzBernardNapieralski">Zanim przejdziemy do dyskusji, bardzo proszę o zabranie głosu prezesa Urzędu Ochrony Danych Osobowych, pana Mirosława Wróblewskiego. Pan prezes wyszedł  z taką inicjatywą, za co bardzo, bardzo serdecznie dziękuję. Chciałem też poinformować podkomisję, że umówiliśmy się z panem prezesem, że zaplanujemy na kolejnym najbliższym posiedzeniu Sejmu odrębne specjalne posiedzenie podkomisji w tym temacie.</u>
          <u xml:id="u-1.14" who="#GrzegorzBernardNapieralski">Panie prezesie, oddaję głos i jeszcze raz dziękuję za inicjatywę.</u>
          <u xml:id="u-1.15" who="#MirosławWróblewski">Dlaczego? Dlatego, że znaczna część tych rozwiązań, które zawarte są w akcie  o sztucznej inteligencji, dotyczy ochrony danych osobowych, przetwarzania tychże danych. Taka jest natura algorytmów, że oczywiście w wielu zastosowaniach polegają one na tym, że muszą być trenowane na danych, że te dane są przetwarzane. Oczywiście pojawia się regulacja w akcie o sztucznej inteligencji mówiąca o tym, to jest  art. 2 ust. 7, że szanuje się prawo o ochronie danych osobowych, że te regulacje aktu pozostają bez uszczerbku. Natomiast jest to jednocześnie wyzwanie. Jest to wyzwanie w dużej mierze dla ustawodawcy krajowego, właśnie dla władz krajowych, dla organów nadzorczych, aby zapewnić rzeczywiste poszanowanie ochrony danych osobowych.</u>
          <u xml:id="u-1.16" who="#MirosławWróblewski">Oczywiście nie miejsce tutaj i pora, żeby mówić o pewnych zagrożeniach związanych z algorytmami. O nich mówi sam akt, jednocześnie mówiąc o innowacjach, o wzmacnianiu gospodarki, ale z drugiej strony także o pewnych zagrożeniach wiążących się chociażby z nieprzejrzystością algorytmu, z tym znanym dobrze mechanizmem czarnej skrzynki, z możliwością wystąpienia pewnych efektów stronniczości czy dyskryminacji. Oczywiście pojawia się tutaj kwestia, której dzisiaj nie omawiamy, ale kwestia odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję, która jest przedmiotem odrębnej regulacji dyrektywy Unii Europejskiej.</u>
          <u xml:id="u-1.17" who="#MirosławWróblewski">Zatem w tym zakresie, jeżeli chodzi o ochronę danych osobowych, istnieje potrzeba praktycznego i efektywnego zapewnienia przede wszystkim zasad ochrony danych osobowych zawartych w RODO, zasady chociażby minimalizacji danych. A wiemy, że z kolei algorytmy uzyskują swoją doskonałość często dzięki przetwarzaniu dużej ilości danych, retencji danych. Co dzieje się z danymi zebranymi do wytrenowania danego algorytmu, zasady celowości? Tutaj, oczywiście ja tylko i wyłącznie zaznaczam, markuję pewne zagadnienia, które są niezwykle istotne, ale pewnie na nie trzeba znaleźć rozwiązania, zarówno takie, które będą miały charakter zmian legislacyjnych, jak i też pewnych wskazań dla tych, którzy będą musieli borykać się z tymi wyzwaniami, czyli już konkretnie administrator ochrony danych osobowych, z drugiej strony podmiotów danych. Tutaj pan minister słusznie zauważył, że bardzo ważnym elementem będzie właśnie wykorzystanie praktyczne tego prawa, które jest zawarte w akcie o sztucznej inteligencji.  To również kwestia przygotowania chociażby inspektorów ochrony danych osobowych także do wyzwań nowoczesnych technologii.</u>
          <u xml:id="u-1.18" who="#MirosławWróblewski">W tym zakresie Urząd Ochrony Danych Osobowych już obecnie prowadzi działania. Przygotowujemy się bez aktu nawet jeszcze, prowadzimy postępowania dotyczące właśnie mechanizmów opartych na sztucznej inteligencji. Jednak chciałbym zapewnić o tym, że będziemy wspierać także te procesy, służyć wiedzą ekspercką, która jest w zakresie ochrony danych osobowych w Urzędzie Ochrony Danych Osobowych, zarówno w pracach legislacyjnych, jeżeli chodzi o poziom współpracy z Ministerstwem Cyfryzacji, czy też jeżeli chodzi o parlament. Chciałbym zadeklarować, że jeżeli tutaj rzeczywiście pan przewodniczący, Wysoka Podkomisja będzie widzieć tę potrzebę, to jesteśmy tutaj w gotowości omówić znacznie szerzej te kwestie. Niezależnie oczywiście od tego, o czym mówił także pan minister, czyli ewentualnych nowych ról instytucjonalnych w ramach tego działania. Na pewno zawsze kwestia ochrony danych osobowych dla nas będzie priorytetem i musimy się przygotowywać do tych wyzwań już teraz. Bardzo dziękuję.</u>
          <u xml:id="u-1.19" who="#GrzegorzBernardNapieralski">Jeszcze tylko powiem, że nasza podkomisja również jest i staramy się być otwarci na różne środowiska i wszystkich, którzy chcą tutaj uczestniczyć w tej dyskusji. Parlament jest takim miejscem do poważnej dyskusji. Kwestia dotycząca sztucznej inteligencji jest bardzo skomplikowana, bardzo trudna też dla nas parlamentarzystów. Czym lepiej ją zrozumiemy, czym więcej dyskusji przeprowadzimy, tym lepsze prawo stworzymy. Z jednej strony, jako osoba, która absolutnie jest zafascynowana nowymi technologiami, tak równo jak jestem zafascynowany, tak również boję się o to, co może wyjść nie tak albo co może być złego, jeżeli chodzi o używanie sztucznej inteligencji, czy zaawansowanych algorytmów. Bardzo dziękuję jeszcze raz, panie prezesie.</u>
          <u xml:id="u-1.20" who="#GrzegorzBernardNapieralski">Przechodzimy do dyskusji. Otwieram dyskusję. Proszę bardzo, czy ktoś z państwa chciałby zadać pytanie, zabrać głos? Panie ministrze, bardzo proszę, pan poseł  Cieszyński.</u>
          <u xml:id="u-1.21" who="#JanuszCieszyński">Drugie pytanie dotyczy tego, jak wyglądają regulacje, bądź oczywiście ich brak,  w krajach poza Europejskim Obszarem Gospodarczym w tej sprawie? Jaki będzie wpływ AI Act na konkurencyjność europejskiej gospodarki w obliczu chociażby wprowadzenia takich obszarów, które będą uregulowane dość mocno? Jaka jest strategia nie tylko  Polski, ale też Unii Europejskiej – bo wiem, że pan minister bierze udział w spotkaniach tych gremiów europejskich – na to, żeby nie było takiej sytuacji, że to co będzie zakazane w Europie, żeby nie powstawało tak naprawdę poza Europą? Co więcej, to byłby chyba najgorszy wariant w oparciu o dane, które są w Europie, czy powstały w Europie,  bo to by mogło właśnie być wykorzystane przeciwko nam, przeciwko naszym biznesom, naszemu społeczeństwu, a my na mocy przepisów po prostu jakby wyłączylibyśmy się praktycznie z prac nad tym.</u>
          <u xml:id="u-1.22" who="#JanuszCieszyński">Prosiłbym też pana ministra o przybliżenie nam, właśnie uchylenie rąbka tajemnicy tych negocjacji europejskich, jeżeli chodzi o działania Francji na ostatniej prostej, jeżeli chodzi o negocjacje AI Act. Są doniesienia medialne, które wskazują na to, że Francuzi jakby wpłynęli, czy chcieli wpłynąć w jakiś sposób na kształt AI Act, a następnie to się wiązało w czasie z ogłoszeniem partnerstwa, współpracy pomiędzy firmą Mistral –  założoną przez bliskiego współpracownika Emmanuela Macrona, byłego ministra cyfryzacji Francji Cédrica O – właśnie z amerykańskimi koncernami. Pytanie tutaj do pana ministra, jak to wyglądało właśnie od strony naszej, od strony tych negocjacji? Czy tu przypadkiem nie ma takiej sytuacji, że dzieją się rzeczy niezgodne z intencjami, które leżały u zarania IA Act? Dziękuję bardzo.</u>
          <u xml:id="u-1.23" who="#GrzegorzBernardNapieralski">Bardzo proszę, panie ministrze, oddaję głos. Dziękuję bardzo.</u>
          <u xml:id="u-1.24" who="#GrzegorzBernardNapieralski">Moja propozycja jest następująca, panie pośle, żeby zawiesić to do czasu, kiedy zakończą się konsultacje, jak pan minister mówi, do 45 dni i taką dodatkową dyskusję przeprowadzić na naszej podkomisji. Wtedy spokojnie o tym porozmawiać i być może wnosić w tych konsultacjach albo na tej Podkomisji swoje propozycje do takiego pomysłu czy innego, jaki się narodzi w Ministerstwie Cyfryzacji.</u>
          <u xml:id="u-1.25" who="#DariuszStanderski">Jeżeli chodzi o kwestie popularnych opinii dotyczących ograniczeń czy wstrzymywania rozwoju, tutaj jeżeli chodzi o akt o sztucznej inteligencji, to osobiście nie doszukuję się blokad rozwojowych ze względu właśnie na kwestie tego, że ten akt nie jest bardzo szeroki. Jest to precyzyjne wskazanie modeli zakazanych oraz modeli wysokiego ryzyka, które wpisują się też w inne ustawodawstwo Unii Europejskiej, przede wszystkim RODO. W tym zakresie, uważam, że akt o sztucznej inteligencji nie wyklucza rozwoju sztucznej inteligencji w ramach Unii Europejskiej, zwłaszcza w zakresie finansowania AI. Dlatego też mówimy o procesie pracy nad funduszem sztucznej inteligencji na poziomie krajowym oraz na poziomie Unii Europejskiej. Mam też nadzieję na ciekawą dyskusję również w przyszłości w Sejmie na ten temat podejmiemy.</u>
          <u xml:id="u-1.26" who="#DariuszStanderski">Natomiast jeżeli chodzi o pytanie pana posła dotyczące negocjacji aktu o sztucznej inteligencji, to proszę mi wybaczyć, ale trilogi zakończyły się 9 grudnia, ministrem zostałem dopiero od 13 grudnia, więc tutaj pełne szczegóły będzie miało poprzednie kierownictwo…</u>
          <u xml:id="u-1.27" who="#GrzegorzBernardNapieralski">Czy są jeszcze inne pytania bądź chęć zabrania głosu w dyskusji? Bardzo proszę. Bardzo proszę pani Joanna.</u>
          <u xml:id="u-1.28" who="#JoannaKarczewska">Natomiast jako informację chciałam przekazać, że PwC, jedna z wiodących agencji konsultingowych, wykonała niedawno badanie, to jest 27 badanie CEO. Zadali pytanie: W jakim stopniu zgadzasz się lub nie zgadzasz, że generatywna sztuczna inteligencja prawdopodobnie zwiększy poniższe w twojej firmie w ciągu najbliższych 12 miesięcy? Okazuje się, że zarówno w Polsce, jak i na świecie uznano, że zagrożenia cybernetyczne są najpoważniejsze. Drugie w rankingu jest rozpowszechnianie dezinformacji. Czyli jest o co walczyć. Dziękuję.</u>
          <u xml:id="u-1.29" who="#GrzegorzBernardNapieralski">Czy ktoś jeszcze chciałby zadać pytanie, zabrać głos w dyskusji? Bardzo proszę. Jeżeli nie ma żadnych głosów ani pytań, to zamykam dyskusję.</u>
          <u xml:id="u-1.30" who="#GrzegorzBernardNapieralski">Na tym wyczerpaliśmy porządek obrad podkomisji. Bardzo serdecznie dziękuję, panie ministrze, panie prezesie, pani dyrektor. Do zobaczenia na następnym posiedzeniu.  Do widzenia.</u>
        </div>
      </body>
    </text>
  </TEI>
</teiCorpus>