text_structure.xml 28.5 KB
<?xml version='1.0' encoding='utf-8'?>
<teiCorpus xmlns="http://www.tei-c.org/ns/1.0" xmlns:xi="http://www.w3.org/2001/XInclude">
  <xi:include href="PPC_header.xml" />
  <TEI>
    <xi:include href="header.xml" />
    <text>
      <body>
        <div xml:id="div-1">
          <u xml:id="u-1.0" who="#PawełPudłowski">Dzień dobry. Otwieram 116 posiedzenie Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii. Witam bardzo serdecznie państwa posłów. Witam pana ministra. Witam zaproszonych gości. Porządek dzisiejszego posiedzenia to rozpatrzenie informacji Ministra Cyfryzacji na temat: „Zagrożenia wynikające z wykorzystania botów i fake newsów do manipulacji w Internecie (ze szczególnym uwzględnieniem mediów społecznościowych)”. Powyższy porządek i materiały posłowie Komisji otrzymali.</u>
          <u xml:id="u-1.1" who="#PawełPudłowski">Czy są zastrzeżenia? Nie słyszę zastrzeżeń. Stwierdzam, że Komisja przyjęła porządek dzienny posiedzenia bez zmian.</u>
          <u xml:id="u-1.2" who="#PawełPudłowski">Przystępujemy do realizacji porządku dziennego. Bardzo uprzejmie proszę pana sekretarza stanu w Ministerstwie Cyfryzacji, Karola Okońskiego, o przedstawienie informacji.</u>
        </div>
        <div xml:id="div-2">
          <u xml:id="u-2.0" who="#KarolOkoński">Panie przewodniczący, Wysoka Komisjo, myślę, że zacznę od uporządkowania definicji. Określeń „dezinformacja” i „fake news” używa się właściwie wymiennie. Natomiast może warto podkreślić, że przez dezinformację rozumiemy świadome działania operacyjne, które mają wywrzeć konkretny wpływ. Czyli, mówimy o pewnym zorganizowanym przedsięwzięciu, w którym mogą być wykorzystywane fake newsy, ale nie tylko. Natomiast fake news jest też podzbiorem czy jedną z technik wykorzystywanych w dezinformacji.</u>
          <u xml:id="u-2.1" who="#KarolOkoński">Wiadomo, że zjawisko szerzenia fałszywych informacji czy manipulacji – co obserwujemy – siłą rzeczy jest powiązane z upowszechnieniem Internetu i rozwojem portali społecznościowych, dlatego, że ich dystrybucja czy zwiększenie częstotliwości, a tym samym zasięgu tych informacji, jest prostsze poprzez wykorzystywanie tzw. botów, czyli fałszywych kont na platformach społecznościowych, które bez ingerencji ludzi, przy pomocy pewnego algorytmu, korzystają z kont ludzi albo z kont stworzonych fikcyjnie utrudniając wykrycie odpowiednich osób, tożsamości czy motywacji, które stoją za danym działaniem. Warte podkreślenia jest to, że w tym upowszechnianiu dezinformacji czy ich multiplikacji sporą rolę odgrywają sami użytkownicy, gdyż bezkrytyczne podejście do treści, które obserwują w mediach społecznościowych, brak jakiejkolwiek weryfikacji, zanim informacja zostanie podana dalej lub polubiona, powoduje wykładnicze tempo rozprzestrzeniania się tej informacji. Szybkość dotarcia tej informacji do dużego grona osób jest tym samym bardzo duża. W naszym materiale podajemy przykład, że jeden fałszywy serwis informacyjny był w stanie wygenerować w ciągu miesiąca 11 mln interakcji właśnie poprzez odpowiednie powiązanie pomiędzy poszczególnymi użytkownikami. Podawali oni dalej taką informację, która była dla nich na tyle interesująca, że chcieli się nią podzielić. Dla porównania, jest to 5 razy więcej, jeśli chodzi o to cytowanie, niż w przypadku renomowanego serwisu online przeznaczonego do publikowania informacji.</u>
          <u xml:id="u-2.2" who="#KarolOkoński">Również warte podkreślenia – co stanowi potencjalne ryzyko, ale i ułatwienie dla tych, którzy chcą szerzyć dezinformację – jest to, że obecnie, jeśli chodzi o preferencje użytkowników, dla większości z nich, szczególnie osób młodych, głównym źródłem informacji jest Internet. Zatem na znaczeniu tracą media tradycyjne, wydawane w postaci papierowej, z których można było wybrać wcześniej wiarygodne źródła informacji, względem których można zweryfikować, czy dana informacja w Internecie jest prawdziwa, czy nie.</u>
          <u xml:id="u-2.3" who="#KarolOkoński">Chciałbym podkreślić, że waga problemu upowszechniania dezinformacji jest bezwzględnie dostrzegana, zresztą przez samych użytkowników Internetu. W badaniu Reutersa z 2016 r, 58% Polaków informuje, że media społecznościowe są dla nich głównym źródłem informacji. Czyli, podstawowym źródłem są właśnie linki czy posty podawane pomiędzy społecznością w danym medium społecznościowym. Z drugiej strony, według badań Eurobarometru, 82% Polaków przyznaje, że spotyka się z fake newsami, z czego 48% twierdzi, że ma z nimi do czynienia codziennie lub prawie codziennie. Jest to mniej więcej zbliżone do średniej – nieco powyżej – w Unii Europejskiej, gdzie ta średnia dziennej styczności z fake newsami to 37%.</u>
          <u xml:id="u-2.4" who="#KarolOkoński">Działania jakie są w tym zakresie podejmowane zarówno z perspektywy Polski, jak i całej Unii Europejskiej. Ten temat uznano za ważny na tyle, że 26 kwietnia br. Komisja Europejska wydała komunikat dotyczący zwalczania dezinformacji w Internecie, w którym zaprezentowała europejskie podejście do tego zagadnienia. To było poprzedzone przygotowaniem raportu przez ekspertów i analityków, którzy zajmowali się tym tematem przez dłuższy czas. A jeśli chodzi o tezy w tym dokumencie, to Komisja prezentuje nadrzędne zasady i cele, które powinny stanowić wytyczne dla działań w zakresie skutecznego zwalczania tego zjawiska oraz wskazuje te środki, które Komisja zamierza zastosować, sugerując to samo poszczególnym krajom członkowskim.</u>
          <u xml:id="u-2.5" who="#KarolOkoński">Jako te główne zasady i cele Komisja wskazała następujące 4 punkty. Po pierwsze, poprawę przejrzystości, jeśli chodzi o pochodzenie, sposoby tworzenia, finansowania, rozpowszechniania i ukierunkowania informacji. Po drugie, promowanie różnorodności informacji poprzez wspieranie wysokiej jakości dziennikarstwa, umiejętności korzystania z mediów oraz przywrócenie równowagi stosunku między twórcami a dystrybutorami informacji. Po trzecie, wspieranie wiarygodności informacji poprzez wskazywanie czy można im ufać, w szczególności z pomocą zaufanych podmiotów sygnalizujących oraz poprzez poprawę identyfikowalności informacji i uwierzytelnianie wpływowych dostawców informacji. Po czwarte, opracowanie rozwiązań integracyjnych polegających na zwiększeniu wiedzy o problemie, lepszej umiejętności korzystania z mediów, szerokiego zaangażowania zainteresowanych stron oraz współpracy organów publicznych, platform internetowych, reklamodawców i wszystkich innych w jak najszybszym identyfikowaniu tego typu informacji.</u>
          <u xml:id="u-2.6" who="#KarolOkoński">Komisja Europejska zwraca też uwagę na to, że dezinformacja jest objawem szerszym. Podstawą do tego, że na tym polu podejmowane są działania, są: brak bezpieczeństwa gospodarczego, odczuwany przez niektórych obywateli rosnący ekstremizm, zmiany kulturowe, które przyczyniają się do powstawania napięć społecznych, polaryzacji i braku zaufania. To rozprzestrzenianie fałszywych informacji jest takim elementem, który czasem trafia na podatny grunt. Z drugiej strony – na co też zwraca uwagę Komisja Europejska – ważne jest, żeby w tej walce z dezinformacją nie naruszać wolności i prawa do informacji. Czyli, fałszywe informacje nawet o szkodliwym charakterze odnośnie do zasady nie są treściami niezgodnymi z prawem, a zatem ich rozpowszechnianie nie może być odgórnie zabraniane, np. przy pomocy blokowania treści, gdyż oznaczałoby to ingerencję w wolność wypowiedzi.</u>
          <u xml:id="u-2.7" who="#KarolOkoński">Metody walki z rozpowszechnianiem dezinformacji powinny, według nas, opierać się głównie na działaniach miękkich, takich jak edukacja, zwiększenie transparentności w zakresie pochodzenia finansowania źródeł, wspieranie działań samoregulujących podejmowanych np. przez platformy internetowe czy dystrybutorów informacji oraz przez środowiska dziennikarzy czy twórców promujących wiarygodne i wysokiej jakości źródła informacyjne. Chodzi o to, aby uczulać odbiorców, obywateli na to, że pewne źródła, pewne portale, z powodu osób, które tam pracują, sposobu podania informacji, są tymi, względem których powinni weryfikować informacje, jakie otrzymują. Generalnie, działania edukacyjne mają na celu przede wszystkim zwiększenie odporności społeczeństwa na informacje o fałszywym charakterze i spadek atrakcyjności tego typu treści, ponieważ – jak mówiłem – pewnym narzędziem w rozpowszechnianiu dezinformacji są sami użytkownicy, którzy bez odpowiedniej refleksji przekazują te informacje dalej.</u>
          <u xml:id="u-2.8" who="#KarolOkoński">Warto zauważyć, jeśli chodzi o kodeks postępowania, że taki kodeks został zaproponowany przez platformy internetowe 28 września br. Mówimy o swego rodzaju samoregulacji, którą platformy internetowe mogłyby wdrożyć. Mamy na myśli, m.in., takie działania, jak ograniczenie sponsorowania treści stanowiących dezinformację, zapewnienie większej przejrzystości w odniesieniu do treści sponsorowanych, w tym reklamy politycznej, wprowadzenie środków służących identyfikacji, zamykaniu fałszywych kont oraz walce z botami czy wprowadzenie narzędzi technicznych, które będą priorytetyzować rzetelne informacje. Chodzi o to, żeby dać możliwość obywatelom zarówno zidentyfikowania tych informacji i ich oznaczenia, jak i poinformowania o potencjalnym zagrożeniu, że jest to fałszywa informacja, a także wprowadzenie mechanizmu umożliwienia weryfikacji treści przez podmioty trzecie w stosunku do tych platform internetowych.</u>
          <u xml:id="u-2.9" who="#KarolOkoński">Odnośnie do działań podejmowanych przez Ministerstwo Cyfryzacji, to wśród konkretnych działań, do których doszło przed ostatnimi wyborami samorządowymi, było utworzenie i uruchomienie strony „Bezpieczne wybory”, której treść powstała we współpracy między Naukową i Akademicką Siecią Komputerową, Państwową Komisją Wyborczą i Agencją Bezpieczeństwa Wewnętrznego. Na tej stronie zwracano uwagę obywatelom i wyborcom, i dawano pewne wskazówki, jakie działania powinni podjąć – a więc przede wszystkim zwiększała ona poziom ostrożności – aby zweryfikować, czy mają do czynienia z dezinformacją czy z fake newsami.</u>
          <u xml:id="u-2.10" who="#KarolOkoński">Generalnie Ministerstwo Cyfryzacji, zarówno odnośnie do tego, co planuje, jak i tego, co podjęło, chciałoby, we współpracy z mediami społecznościowymi, które są obecne w Polsce, wypracować kodeks dobrych praktyk, czyli samoregulowania się tych podmiotów, które tworzą treści, czy też są odpowiedzialne za ich dystrybucję. W lipcu br. mieliśmy pierwsze takie spotkanie otwarte, którego celem było zasygnalizowanie tematu i wymiana informacji o najskuteczniejszych formach walki z fake newsami. Planujemy kontynuować tę debatę i w pierwszej kolejności – tak, jak powiedziałem – skupiać się na aspektach miękkich, związanych z edukacją i kodeksem dobrych praktyk. Mogę też powiedzieć, że w ramach tych naszych działań zastanawiamy się nad rozwiązaniami technicznymi, które pozwoliłyby wesprzeć administrację publiczną w odpowiednim rozpoznawaniu tych treści, a szczególnie tych inspirowanych przez środowiska albo antypolskie, albo, w naszym kontekście, mocno prorosyjskie, których celem jest dezawuowanie działań Polski czy NATO. Są to pewne rozwiązania techniczne, które pozwalają rozpoznać wzorce stosowane przez te służby, a tym samym rozpoznawać i przekazywać informacje do służb informacyjnych, które są w stanie prowadzić odpowiednie działania zaradcze albo dementować to w przestrzeni publicznej. To, w dużym skrócie, podsumowanie naszego stanowiska. Dziękuję bardzo.</u>
        </div>
        <div xml:id="div-3">
          <u xml:id="u-3.0" who="#PawełPudłowski">Bardzo dziękuję, panie ministrze. Otwieram dyskusję. Kto z państwa chciałby zadać pytanie lub podzielić się komentarzem?</u>
          <u xml:id="u-3.1" who="#PawełPudłowski">Ja mam pytanie na początek. Bardzo mnie interesuje, bo pan minister powiedział, że takie działania są podejmowane, na jaką skalę są podejmowane. Czy rzeczywiście, oprócz rozpoznania, mają one dalszy etap, czyli eliminację takich rozpoznanych, zagranicznych insajtów, które mogą się zdarzać? Czy jest to działanie skoordynowane? Czy my na bieżąco nad tym panujemy? Wydaje się, że brexit jest po części skutkiem właśnie działań destabilizujących, podkręcających pewne obiegowe opinie, które jednak nabierają na sile dopiero w wyniku tego, że widzi się 20–30 podpisów, co tworzy taką sensacyjność czy prawdziwość tego wydarzenia, a tak naprawdę statystyka ma się nijak do liczby opinii, które tam się generują. Czy ministerstwo prowadzi jakieś działania w celu eliminacji botów, czyli kont nieludzkich? Czy możemy mieć 100-procentową pewność, że dane konto nie jest człowieka i czy wskazana jest eliminacja takich kont? Czy państwo wiedzą, czy w kampaniach wyborczych stosowane były strategie uruchamiania botów dla poparcia swoich tez lub swoich kandydatów, co nie jest niezgodne z prawem, ale etycznie i moralnie jest zastanawiające, tym bardziej, jeśli w Polsce sami generujemy tego rodzaju strategię przekonywania osób, popularyzując ten sposób komunikacji ze społeczeństwem i jakiejś manipulacji, wpływu, nacisku itd.</u>
          <u xml:id="u-3.2" who="#PawełPudłowski">Czy są jeszcze jakieś pytania? Jeśli nie ma, to tyle. Bardzo proszę, panie ministrze.</u>
        </div>
        <div xml:id="div-4">
          <u xml:id="u-4.0" who="#KarolOkoński">Odnośnie do działań podejmowanych przez Ministerstwo Cyfryzacji czy rząd, mogę powiedzieć, że w zakresie samoregulacji mamy powołaną grupę roboczą, w ramach której chcemy te prace kontynuować, natomiast ona w tej chwili nie ma precyzyjnego harmonogramu. Nie ukrywajmy, że pewnym wyzwaniem jest włączenie w te prace tych wszystkich portali społecznościowych, bo nie mamy mechanizmu, żeby niejako zmusić ich do tego działania, bo jest to jednak samoregulacja. Natomiast w skali globalnej w Polsce widzą to, że nad tym zjawiskiem trzeba zapanować w większym stopniu. Zatem będziemy to kontynuować. To akurat jest koordynowane przez Ministerstwo Cyfryzacji.</u>
          <u xml:id="u-4.1" who="#KarolOkoński">Są też planowane działania – temat koordynacji działań krajowych. Oczywiście, są działania podejmowane przez ABW i SKW, natomiast zakładamy, że do wymiany informacji w tym względzie dojdzie dopiero w szerszym zakresie, w ramach Kolegium do Spraw Cyberbezpieczeństwa, które zostało ustanowione ustawą o krajowym systemie cyberbezpieczeństwa. Chcemy, żeby to był jeden z tematów regularnie podnoszonych. W kolegium będą prowadzone w trybie niejawnym, ale chodzi przede wszystkim o wymianę informacji między wszystkimi interesariuszami.</u>
          <u xml:id="u-4.2" who="#KarolOkoński">W kontekście zbliżających się wyborów do europarlamentu, stroną wiodącą, jeśli chodzi o przestrzeń publiczną w Polsce, jest Agencja Bezpieczeństwa Wewnętrznego, natomiast ewidentnie wymagane jest współdziałanie w Polsce i z instytucjami europejskimi. Komisja Europejska poprosiła, żeby wszystkie kraje członkowskie do końca listopada wskazały tzw. punkty kontaktowe, pomiędzy którymi będzie można prowadzić wymianę informacji w tym okresie poprzedzającym wybory do europarlamentu. Tym punktem kontaktowym będzie Ministerstwo Cyfryzacji, aczkolwiek zakładamy, że w Polsce tym ciałem koordynującym będzie raczej – a właściwie nie raczej, tylko tak ustaliliśmy roboczo, do potwierdzenia jeszcze przez kolegium – Rządowe Centrum Bezpieczeństwa, czyli RCB, które ma już powołany zespół. Może pan Krzysztof przypomni nazwę, bo ja zapomniałem. Jest taki zespół – on już istnieje – który spotyka się pod przewodnictwem pana ministra Cichockiego. Teraz „wyleciała” mi nazwa tego zespołu. W każdym razie, on zajmuje się generalnie rzeczami związanymi właśnie z potencjalnym ryzykiem jakichś działań w przestrzeni publicznej, które mogą być inspirowane przez zewnętrzne służby, tzn. niepolskie. Chcemy, żeby to ciało regularnie wymieniało się informacjami i śledziło cyberprzestrzeń w kontekście ewentualnego wpływania na wyniki wyborów.</u>
          <u xml:id="u-4.3" who="#KarolOkoński">Odnośnie do botów, to my nie mamy w tym momencie prawa do usunięcia. Możemy o to wnosić, ale de facto na takich samych prawach jak każdy użytkownik Internetu. To prawo przysługuje wyłącznie poszczególnym platformom internetowym. Tym, o czym mówimy, jest to, żeby wprowadzić pewne samoregulacje, którym poddają się te platformy. Z niektórymi – jak z Facebookiem – współpracujemy. To nie dotyczy akurat fake newsów. Był to kontekst szerzenia mowy nienawiści i zbyt pochopnego zamykania pewnych kont, jeśli chodzi o wolność słowa, czy uruchomienie procedury odwoławczej – ścieżki odwoławczej – w przypadku zablokowania konta przez Facebook, z którym się nie zgadzamy. Taka możliwość od niedawna istnieje. Facebook zgodził się, żeby te wnioski, które będą spływać, rozpatrywać w 72 godziny. Tak więc, wbrew pozorom – żeby państwo zdawali sobie z tego sprawę – liczba kont i liczba aktywności na Facebooku jest tak duża, że obecnie decyzja człowieka, który wspierany jakimś algorytmem mówi tak/nie odnośnie do tego, czy zamknąć dane konto, czy nie, to jest dosłownie kwestia kilku sekund. Zatem, siłą rzeczy niektóre z tych działań mogą być niepoparte faktami i ta ścieżka odwoławcza ma dać szansę Facebookowi faktycznie wycofać się z tego zbyt wczesnego zablokowania konta, które jest bezpodstawne, chociaż wciąż pozostaje w jego gestii analiza argumentów. To w obszarze fałszywych kont.</u>
          <u xml:id="u-4.4" who="#KarolOkoński">Jeśli chodzi o to, czy boty były używane do tej pory, nie umiem w tym momencie odpowiedzieć na to pytanie. Nie znam takiego opracowania, a w każdym razie nie jest ono jawne. Dziękuję.</u>
        </div>
        <div xml:id="div-5">
          <u xml:id="u-5.0" who="#PawełPudłowski">Czy znane jest panu ministrowi rozwiązanie niemieckie? Oni wprowadzili pół roku temu ustawę, która zobowiązuje portale, do eliminacji fake newsów. Na ile można w trudnej sytuacji, która jest, dobrze wyważyć, co jest dezinformacją, a co nie jest? To jest pierwsze pytanie. Chodzi o opinię pana i pana zespołu na ten temat.</u>
          <u xml:id="u-5.1" who="#PawełPudłowski">Drugie pytanie. Bardzo trudno – zgadzam się – byłoby zamykać te konta botowe, czyli tworzone przez algorytmy. Może jednak poszlibyśmy w drugą stronę – proszę raczej o opinię kierunkową – czyli w kierunku, że w stosunku do portali typu Twitter czy Facebook byłby wymóg potwierdzenia tożsamości rzeczywistej. Czyli, widzimy również te boty, ale one nie są potwierdzone przez człowieka. Trzeba by się zastanowić, jakiego rodzaju mechanizm musiałby to być, ale chodzi o potwierdzanie, że to konto jednak jest rzeczywiste, pomimo tego, że ten ktoś może przybrać inne imię i nazwisko – nie wszyscy są chętni wygłaszać swoje opinie pod własnym nazwiskiem, co potrafię zrozumieć – gdzieś w systemie wymagać, żeby podali swoje nazwisko.</u>
          <u xml:id="u-5.2" who="#PawełPudłowski">Nie wiem, czy pan poseł Masłowski ma jeszcze jakieś pytania, bo właśnie dotarł, a powoli kończymy. Witam również pana posła Pawła Szramkę, który dołączył do nas za pana posła Wojciecha Bakuna, który wygrał wybory prezydenckie w Przemyślu. Bardzo serdecznie witam pana posła. Dzisiaj mówimy o botach i fake newsach, i w zasadzie jesteśmy w końcówce tego spotkania. Bardzo proszę, panie ministrze.</u>
        </div>
        <div xml:id="div-6">
          <u xml:id="u-6.0" who="#KarolOkoński">Ja odpowiem w kwestii weryfikacji kont, a odnośnie do rozwiązań niemieckich, ewentualnie czy uważamy że to jest dobry pomysł, żeby wprowadzić twardą legislację, poproszę o opinię pana mecenasa Kroplewskiego. Potem, w ramach uzupełnienia działań, które są podejmowane, poproszę pana Krzysztofa Politowskiego, żeby powiedział o jeszcze jednym przedsięwzięciu finansowanym ze środków NCBR, czy potencjalnych przedsięwzięciach, które też mogą nam ułatwić identyfikację fałszywych informacji.</u>
          <u xml:id="u-6.1" who="#KarolOkoński">Odnośnie do potwierdzeń kont, faktycznie mogłaby to być jakaś metoda, że mamy zweryfikowane konta z odpowiednią ikonką. W niektórych serwisach społecznościowych taka możliwość istnieje. Teraz z pamięci nie powiem. Natomiast, mamy potencjalnie nasz profil zaufany, który jednak, zgodnie z ustawą, nie jest w tym momencie udostępniany portalom nienależącym do administracji publicznej. Według mnie, taka była intencja, żeby z racji tego, że finansowanie utrzymania profilu zaufanego jest jednak kosztem państwa, nie poszerzać tego grona. Aczkolwiek ustawa o usługach zaufania wprowadziła taki model federacyjny tożsamości, który spowoduje – wiemy, że będzie powodował – że niektóre podmioty, jak np. banki, będą wydawały swoje własne środki identyfikacji elektronicznej. Mnie współpraca z tymi portalami wydaje się całkiem rozsądnym pomysłem. Mamy taką grupę do spraw cyfrowej tożsamości. Mogę się zobowiązać, żeby taki temat jak najbardziej poddać dyskusji crossektrowej. Przekazuję głos.</u>
        </div>
        <div xml:id="div-7">
          <u xml:id="u-7.0" who="#RobertKroplewski">Dzień dobry państwu. Robert Kroplewski. Odnośnie do ustawy niemieckiej. Tak panie przewodniczący, znana jest nam ta ustawa, natomiast jej kierunek nie jest przez nas popierany. Powód jest prosty – kary tam nakładane i restrykcje zostały przez nas odnotowane jako takie, które krok po kroku ograniczałyby przestrzeń wolności słowa. Uznaliśmy, że ten kierunek jest błędny, czyli nadmierna nadaktywność w niszczeniu informacji, które są nienawistne, fakowe, powoduje ograniczenie przestrzeni wolności słowa. Myślę, że polska kultura raczej umacnia nas ku temu, aby wolność słowa krzewić i przede wszystkim ją wzmacniać. Dlatego niejako naprzeciwko pojawił się ten wątek punktu kontaktowego, który odnotował przed chwilą pan minister, że szanujemy usuwanie treści nielegalnych i walkę w jakiś sposób ze zjawiskiem fake newsowym, natomiast w tym samym momencie nie możemy pozwolić sobie na ograniczenie wolności słowa i chcemy wspierać jej rozwój w sytuacji, kiedy technologia mediów społecznościowych spowodowała zblokowanie kont, gdzie dana treść była dopuszczalna legalnie lub była zgodna z regulaminem społeczności danego medium społecznościowego.</u>
          <u xml:id="u-7.1" who="#RobertKroplewski">Na marginesie można powiedzieć ogólnie, żeby dzisiaj wspólnie rozumieć tę przestrzeń, że media społecznościowe to jest usługa cywilna. Ona kieruje się tzw. regulaminem społeczności, który spłaszcza warstwę etyczną, moralną i ustrojową jedynie do usługi technicznej, i w tym przypadku komunikacyjnej, ale jednak na podstawie usługi komercyjnej cywilnej. Naszą rolą z poziomu ministerstwa jest podniesienie racji ustrojowych naszego kraju do warstwy uznania przez Facebook czy Twitter i inne organizacje mediów społecznościowych transgranicznych wolności słowa jako wartości nadrzędnej, którą należałoby również uznawać w perspektywie globalnej.</u>
          <u xml:id="u-7.2" who="#RobertKroplewski">Współpracę w ramach samoograniczenia i budowania kodeksów etycznych właśnie rozpoczęliśmy w tych strumieniach. Facebook jest tam obecny, Twitter również. Prowadzimy nie tylko twarde negocjacje, które skończyły się właśnie przyjęciem punktu kontaktowego, ale też rozmowy bardzo rzeczowe. Korzystamy z wiedzy tych portali. Mam nadzieję, że z czasem zostanie przyjęty jakiś krajowy kodeks samoregulacyjny tych portali, i nie tylko naszych przedsiębiorców.</u>
          <u xml:id="u-7.3" who="#RobertKroplewski">Chciałbym poruszyć jeszcze jeden wątek. Wcześniej było pytanie dotyczące botów. To jest ważne, żeby to powiedzieć. Jeżeli mówimy o tym, aby dane konta były z imienia i nazwiska zaprezentowane, zweryfikowane, to musiałaby się odbyć dyskusja, debata publiczna, nad bardzo ważną wartością Internetu, jaką jest anonimowość. Dotychczas Internet był anonimowy, więc wprowadzanie dzisiaj identyfikacji każdego uczestnika przestrzeni internetowej wymagałoby co najmniej skonsultowania ze społeczeństwem, jaki kierunek rozwoju Internetu jest potrzebny. Mówię o warstwie, gdzie widzimy dane portale i profile użytkowników. Natomiast w warstwie wewnętrznej, między użytkownikiem a portalem, często ta weryfikacja tożsamości zachodzi. Facebook jest tego konkretnym przykładem. Kotno może być opatrzone jakimś skrótem, pseudonimem, natomiast w warstwie wewnętrznej wyraźnie trzeba zadeklarować swoje imię, nazwisko i się zweryfikować. Twitter już nie jest takim medium. Tam każdy może się zarejestrować tak, jak by sobie życzył. I tu rzeczywiście najczęściej mamy do czynienia z podłączeniem botów.</u>
          <u xml:id="u-7.4" who="#RobertKroplewski">Warto też odnotować – to uzupełniająco wobec tego, co powiedział pan minister – że od czterech miesięcy jest prowadzona bardzo poważna akcja największych portali społecznościowych – Twitter, Facebook, ale też YouTube – ograniczająca obecność botów w przestrzeni medium społecznościowego. Rzeczywiście wprowadzono wykrywalność poprzez sztuczną inteligencję, poprzez modele zachowania, i liczba kont spadła dramatycznie, o kilkanaście procent. Z tym zjawiskiem oczywiście nieustannie trzeba walczyć, ale to jest proces, który świadomie i odpowiedzialnie te portale podjęły.</u>
          <u xml:id="u-7.5" who="#RobertKroplewski">Trzeba też powiedzieć, dlaczego. Te portale światowe zrozumiały, że największą wartością ich biznesu, z którą muszą się zmierzyć, jest zaufanie – oprócz tego, że oczywiście chciałyby zarabiać, monetyzować ruch, również ten fałszywy, bo przecież o to tam chodzi. Każdy fałszywy ruch jest odbiciem znaku dla pobrania pieniędzy reklamowych. Zrozumieli, że kreowanie przestrzeni zaufania jest tym, co spowoduje zwiększenie wartości i możliwości kapitalizacji tej usługi. My też to dostrzegamy, a przede wszystkim dostrzegamy zrozumienie potrzeby reakcji tych portali społecznościowych. Dlatego zaczyna się nam łatwiej rozmawiać, ale rozmowy trwały 2,5 roku. Dziękuję.</u>
        </div>
        <div xml:id="div-8">
          <u xml:id="u-8.0" who="#KrzysztofPolitowski">Panie przewodniczący, szanowni państwo, chciałbym poinformować o takim przedsięwzięciu naukowo-badawczym, które realizowane jest w ramach programu prowadzonego przez Narodowe Centrum Badań i Rozwoju. Program nowi nazwę CyberSecident. Jest to program poświęcony cyberbezpieczeństwu i identyfikacji elektronicznej. Właśnie w tej chwili, dosłownie wczoraj, zapadła decyzja Komitetu Sterującego o zgodzie na wprowadzenie do agendy badawczej tego programu zagadnienia rozpoznawania botów, mówiąc ogólnie, czyli zbudowania mechanizmu, o którym tutaj pan mecenas Kroplewski mówił. Pozwoliłby on przede wszystkim identyfikować te źródła informacji, które generowane są w sposób automatyczny, bo nie możemy zwalczać czegoś, czego nie jesteśmy w stanie rozpoznać. Zatem rozpoznanie jest warunkiem zwalczania tego zjawiska.</u>
          <u xml:id="u-8.1" who="#KrzysztofPolitowski">W najbliższym czasie – dosłownie są to pojedyncze dni lub najwyżej tygodnie – uruchomiony zostanie trzeci konkurs w ramach tego programu CyberSecident, w którym to zagadnienie jest ujęte. Podmioty naukowo-badawcze będą mogły podjąć taki projekt. Ogólna suma pieniędzy przeznaczonych na dofinansowanie projektów w tym konkursie wynosi ok. 70 mln zł. Dziękuję uprzejmie.</u>
        </div>
        <div xml:id="div-9">
          <u xml:id="u-9.0" who="#PawełPudłowski">Bardzo dziękuję. Jeśli nie ma więcej pytań, to zamykam dyskusję. Zamykam posiedzenie Komisji.</u>
          <u xml:id="u-9.1" who="#PawełPudłowski">Stwierdzam, że protokół posiedzenia z załączonym zapisem jego przebiegu jest do wglądu w sekretariacie Komisji w Kancelarii Sejmu. Dziękuję. Życzę udanego wieczoru.</u>
        </div>
      </body>
    </text>
  </TEI>
</teiCorpus>