Sztuczna inteligencja coraz częściej pełni w firmach rolę doradcy – podsuwa rozwiązania, porządkuje informacje i bywa podstawą decyzji o realnych skutkach finansowych i społecznych. Przyspiesza to działanie organizacji, ale jednocześnie przesuwa ryzyko w obszary, gdzie brakuje jasnych reguł.
Największe napięcia pojawiają się tam, gdzie technologia pozostaje nieprzejrzysta, a konsekwencje są wysokie – w HR, bezpieczeństwie, ochronie zdrowia, edukacji czy usługach publicznych. W takich kontekstach „działało w teście” nie jest wystarczającym uzasadnieniem.
Kluczowym zadaniem zarządów staje się więc uporządkowanie zasad odpowiedzialności i kontroli: tak, by było jasne, kto podejmuje decyzje, na jakiej podstawie są one weryfikowane i co organizacja potrafi wyjaśnić w sytuacji błędu lub sporu.
W praktyce AI jest narzędziem IT, nawet jeśli tworzy przekonujące uzasadnienia i „brzmi” jak ekspert. Gdy firma podejmuje decyzję na podstawie rekomendacji modelu, odpowiedzialność pozostaje po stronie ludzi i organizacji – tak samo jak przy decyzjach opartych na raportach, analizach czy systemach scoringowych.
Najbardziej ryzykowne jest myślenie, że AI może stać się „wirtualnym członkiem zarządu”. To może być użyteczna metafora, ale prawnie i organizacyjnie liczy się podpis, procedura i staranność. Wrażliwe obszary (np. HR, ocena pracownika, dostęp do usług) wymagają szczególnie ostrożnego podejścia.
Dla firm działa tu prosty standard – rekomendacje można automatyzować, ale odpowiedzialności nie. Minimalny ład decyzyjny warto oprzeć na kilku spójnych zasadach:
„Nie wystarczy powołać się na rozwiązanie IT – odpowiedzialność ciąży na podmiocie, który na tej podstawie podejmuje decyzje” – Aleksandra Alejtner, partner w kancelarii DZP, prawniczka zajmująca się m.in. ryzykami prawnymi technologii.
Wiele modeli działa jak „black box”: widzimy, jakie dane trafiają na wejście i jaki wynik pojawia się na wyjściu, ale trudniej prześledzić, dlaczego właśnie taki tok wnioskowania doprowadził do danej rekomendacji. Utrudnia to nie tylko identyfikację źródła błędu, lecz także rzetelną ocenę odpowiedzialności – czy wynika on z zaniedbania, niewłaściwego użycia, czy z samej konstrukcji modelu.
Dla biznesu oznacza to konieczność odejścia od logiki „model ma rację” na rzecz podejścia, w którym „model formułuje hipotezę”. Nawet jeśli wynik jest operacyjnie trafny, nie powinien stanowić jedynej podstawy działania tam, gdzie w grę wchodzą prawa jednostki, bezpieczeństwo lub istotne koszty.
W praktyce zamiast pełnej wyjaśnialności kluczowe stają się mechanizmy kontroli: testowanie na scenariuszach granicznych, stały monitoring jakości, rejestrowanie użycia, wersjonowanie modeli oraz jasno zdefiniowane procedury reagowania na halucynacje. W efekcie firma powinna być w stanie wykazać nie tyle, „co było w środku”, ile „jak zarządzała ryzykiem”.
„Wiemy, co wchodzi i co wychodzi, ale co dzieje się pośrodku – nie mamy pojęcia, więc trudno to oceniać prawnie” – Mariusz Pitura, współzałożyciel startupu Pogaduszki, finalista 7. edycji programu InCredibles.
Technologia tradycyjnie wyprzedza prawo, a w generatywnej AI skala i tempo zmian są wyjątkowe. Efekt jest podwójny – z jednej strony rośnie potrzeba ochrony praw człowieka i bezpieczeństwa, z drugiej – ryzyko, że sztywne przepisy staną się nieaktualne w chwili wejścia w życie lub zahamują innowacje.
W takim środowisku rośnie znaczenie „miękkiego prawa”: branżowych dobrych praktyk, standardów zgodności, zasad transparentności, regulaminów usług i polityk wewnętrznych. Firmy już dziś muszą rozstrzygać kwestie własności rezultatów, użycia danych czy komunikacji z klientem, nawet jeśli ustawodawca dopiero buduje ramy.
Warto przyjąć założenie, że regulacja będzie raczej procesem niż jednorazowym aktem. Organizacje, które zbudują elastyczne ramy (governance, audytowalność, ocena ryzyka), lepiej przejdą przez czas, w którym zarówno rynek, jak i państwo dopiero kształtują zasady gry.
„Zmiany technologiczne zawsze wyprzedzały zmiany prawne, a w przypadku AI zasięg oddziaływania jest większy” – Rafał Mrówka, profesor Szkoły Głównej Handlowej, kierownik MBA for Startups.
Globalnie ścierają się różne podejścia do AI: nacisk na maksymalną komercjalizację i tempo wdrożeń, silniejsza ochrona praw jednostki oraz model podporządkowany interesowi państwa. Dla firm nie jest to dyskusja akademicka, lecz realny wybór – między kosztami zgodności, ryzykiem reputacyjnym a przestrzenią do budowania przewagę.
W europejskim podejściu szczególnie wyraźna jest obawa przed monetyzacją prywatności i „normalizacją” nadużyć, które później trudno odwrócić. Doświadczenia platform cyfrowych pokazują, że rachunek przychodzi z opóźnieniem – w postaci kar, konflików społecznych i utraty zaufania.
Dodatkowym źródłem napięć jest rola największych graczy. Duże podmioty często wspierają regulacje, ale takie, które – poprzez skalę kosztów, dostęp do danych i wymagania infrastrukturalne – podnoszą próg wejścia dla mniejszych firm. Z perspektywy konkurencyjności kluczowe staje się więc zachowanie proporcjonalności i realnej wykonalności regulacji.
„W Europie mamy inne podejście do prywatności i praw człowieka niż model nastawiony wyłącznie na komercjalizację” – Artur Kurasiński, przedsiębiorca, inwestor i podcaster.
W wielu branżach AI przestaje być wyróżnikiem, a staje się warunkiem wejścia do gry. To przesuwa punkt ciężkości: przewaga nie wynika już z samego użycia modelu, lecz z jakości danych, dopasowania do kontekstu oraz wiarygodności procesu. Szczególnie widać to w produktach opartych na danych wrażliwych, np. danych dzieci.
Jeśli model uczy się na próbkach głosu lub zachowaniach użytkowników, kluczowe stają się świadome zgody, realna możliwość wycofania danych oraz jasna, zrozumiała komunikacja z klientem. Rynek rzadko pyta o architekturę, ale szybko rozlicza z efektów: czy rozwiązanie działa, czy jest bezpieczne i czy organizacja faktycznie kontroluje ryzyko.
Paradoks polega na tym, że klienci często kupują nie „AI”, lecz rezultat. To na twórcach spoczywa ciężar zgodności i odpowiedzialności – również wtedy, gdy przewaga technologiczna szybko się spłaszcza, bo podobne funkcje pojawiają się u największych graczy.
„Klientów interesuje efekt, a nie to, czy pod spodem jest AI – odpowiedzialność za sposób działania zostaje po stronie twórców” – Jarosław Królewski, założyciel i prezes Synerise.
Najbardziej praktyczna strategia na najbliższe lata to połączenie trzech elementów: odpowiedzialności człowieka za decyzje, audytowalności użycia modeli oraz ram, które da się aktualizować w rytmie zmian technologii.
AI będzie coraz bardziej „wszędzie”, więc przewagę zbudują organizacje, które traktują ją jak system wymagający nadzoru – a nie wyrocznię, na którą można zrzucić konsekwencje.
Źródło: Audycja „Firmament” – wspólny projekt programu InCredibles i Radia 357: https://www.youtube.com/watch?v=LLg_DKDei-U
Treść została wygenerowana za pomocą AI.
Nie w obszarach wrażliwych. AI może doradzać, ale decyzja i odpowiedzialność pozostają po stronie firmy i osób decyzyjnych (więcej w: „Odpowiedzialność nie przechodzi na algorytm”).
Budować audytowalność: testy, monitoring jakości, rejestr użycia, wersjonowanie i procedury reakcji na błędy oraz halucynacje (więcej w: „Black box i explainability: jak dowodzić staranności”).
Raczej nie w pełni, dlatego obok prawa rośnie rola „miękkich” standardów: polityk, regulaminów, dobrych praktyk i governance, które można aktualizować (więcej w: „Regulacje: presja na prawo i rola „miękkich” standardów”).
Bo inaczej rozkłada się akcenty między innowacją, kontrolą państwa i ochroną praw człowieka. To wpływa na ryzyka, koszty zgodności i konkurencyjność (więcej w: „Konkurencyjność kontra prawa człowieka: trzy porządki rynkowe”).
Coraz częściej to warunek wejścia, nie wyróżnik. Przewagę budują dane, zaufanie, procesy bezpieczeństwa i dopasowanie do realnego problemu klienta (więcej w: „Startup na danych wrażliwych: zaufanie ważniejsze niż etykieta „AI”).
Jarosław Sroka, dobry wieczór. Rozwój sztucznej inteligencji rewolucjonizuje wiele branż, w zasadzie każdy nowoczesny, ambitny, odpowiedzialny biznes, a do takiego nawiązujemy w firmamencie. Trudno jednak oprzeć się wrażeniu, że jest to rozwój nieokiełznany i przez to budzący sporo niepokoju lub wręcz realnych dylematów prawnych i moralnych. I temu właśnie poświęcimy dzisiejsze wydanie naszej audycji. Firmament. Audycję realizuje Adam Matyjek, a wydaje Paweł Sołtys. A w studiu są już z nami goście: Aleksandra Alejtner, partner w kancelarii DZP. Dobry wieczór. Dobry wieczór. Artur Kurasiński, przedsiębiorca, inwestor, podcaster, prawdziwy człowiek renesansu. Takiego e-renesansu. Dobrze mówię? Dobrze. Dobry wieczór. Mariusz Pitura, współzałożyciel startupu Pogaduszki, zajmującego się poprawą logopedii u dzieci za pomocą aplikacji sterowanej sztuczną inteligencją, co ważne w tym kontekście i jednocześnie finalista siódmej edycji programu Incredibles Sebastiana Kulczyka. Dobry wieczór. Tak jest, dobry wieczór. No to zaczynamy, drodzy Państwo, tę dyskusję, bo ona jest bardzo gorąca, o czym świadczy przebieg naszej rozmowy przed południem. Coraz więcej osób coraz śmielej przyznaje się do tego, że konsultuje swoje decyzje biznesowe właśnie z modułami sztucznej inteligencji w zakresie polityki kadrowej, polityki IT. Niektórzy nawet mówią, że mają takich wirtualnych członków zarządu. Wyobrażam sobie, że dopóki idzie dobrze, to wiadomo, że zawsze człowiek będzie tym, który miał rację, a jak pójdzie coś źle, kto odpowie za to prawnie? Ola? Tak, rzeczywiście trwają prace nad, albo zatrzymały się prace nad kwestiami regulacji odpowiedzialności za działania sztucznej inteligencji. Ta kwestia w ogóle też jest bardzo ciekawa, bo nie wiem, czy pamiętacie Państwo, ale jeszcze kilka lat temu trwała dyskusja w Parlamencie Europejskim na temat tego, czy w ogóle należy przyznać osobowość prawną sztucznej tej agencji, czyli stworzyć taką kategorię elektronicznej osoby prawnej właśnie po to, żeby ułatwić pewne kwestie odpowiedzialności w tych takich granicznych przypadkach. Ta koncepcja została zakrzyczana przez środowiska naukowe, przez środowiska, yyy, przypominam sobie zresztą taki wielki list chyba stu naukowców, którzy napisali oburzeni, że, że dotychczasowe rozwiązania w zakresie po prostu odpowiedzialności cywilnej są, są wystarczające. I mieli rację z perspektywy czasu? Z perspektywy czasu okazuje się, że to wcale nie jest takie proste. Szczególnie teraz, kiedy wchodzą na przykład te rozwiązania związane z generatywną sztuczną inteligencją czy rozwiązania tworzone przez sztuczną inteligencję, które są coraz bardziej skomplikowane, coraz bardziej trudno jest prześledzić, na którym etapie rzeczywiście ten błąd nastąpił i kto, kto zawinił, czy to jest na obszarze– zresztą mamy cały czas wątpliwości co do tego, czy te regulacje dotyczące black boxów, dostępu do black boxów, do tego, żeby zobaczyć, na jakich danych była trenowana sztuczna inteligencja, gdzie jest wystarczająca transparentność, żeby zobaczyć i zrozumieć, gdzie, gdzie błąd nastąpił. Gdzie powstał błąd, a co to jest black box? Tak na marginesie. Black box to rzeczywiście to jest tak, jak sobie wyobrażam. Nie jestem, nie jestem informatykiem i pewnie informatycy za chwilę by mnie zakrzyczeli, ale tak jak sobie my, prawnicy, wyobrażamy, taki, taki obszar działania tego systemu do trenowania, sztucznej do trenowanie, potem dalej pracy tego systemu zawierającą się- Taka skrzynka z taką treningową Pandorą. -z wszystkimi informacjami, które są ważne do tego, żeby zobaczyć, czy rzeczywiście tam nie doszło do– skąd się pojawiły dane, do kogo one należą, w którym momencie zostały wprowadzone, kto podejmował, w jakim momencie odpowiednie, odpowiednie decyzje. Więc jakby rzeczywiście teraz, nawet niedawno mieliśmy taką, taką dyskusję, taką burzę mózgów wśród prawników na temat tego, czy w ogóle to zarzucenie pracy nad przyznaniem osobowości sztucznej inteligencji, czy to było, czy to było właściwe, czy należy odgrzać ten temat, który wydawało się, że tak leży zapomniany. Ale to, co my żeśmy zauważyli, bo to jest bardzo paradoksalnie, może nikt na to nie zwraca uwagi, bo kiedy się mówi o sztucznej inteligencji, to jakoś mniej się patrzy na różne obszary prawa, które jakoś nie przystają zupełnie do sztucznej inteligencji. Ale w tym samym czasie, kiedy zarzucono prace nad osobowością prawną sztucznej inteligencji, to rozpoczęto prace na przykład nad przyznaniem osobowości prawnej rzekom albo parkom narodowym. I kilka takich sytuacji nastąpiło też w Unii Europejskiej, też w Hiszpanii, o ile sobie- Sztucznej inteligencji to się nie śniło. To się nie śniło sztucznej inteligencji, ale tam wymyślono tę koncepcję po to, żeby łatwiej właśnie w imieniu tych jakby obszarów, które zanikają czy są, są niszczone, dochodzić roszczeń. Tutaj pewnie ta kwestia wynikałaby z koncepcji chęci przyznania osobowości prawnej sztucznej inteligencji, wynikałaby z jakichś takich innych przesłanek, no bo chodziłoby o to, żeby łatwiej dochodzić roszczeń przeciwko, przeciwko twórcom sztucznej inteligencji czy producentom. Natomiast ta kwestia jest rzeczywiście bardzo, bardzo ciekawa No słucham Oli z zapartym tchem i takie mam wrażenie, że tradycyjnie jak nie wiadomo, o co chodzi, to nie wiadomo, o co chodzi, prawda? Że skrócę to słynne powiedzenie, ale patrzę na was tęsknym wzrokiem, bo mam takie wrażenie, słuchając Oli, żeŻycie sobie, prawo sobie, a technologia sobie. I ten trójkąt bermudzki absolutnie jest jeszcze niezgrany. Jak to wygląda z waszej perspektywy? Mariusz? No, najciekawsze jest w tym wszystkim to, że my nie wiemy — à propos black boxów — my nie wiemy, co tam się dzieje, więc ciężko oceniać. Też myślę, z perspektywy prawnej, yyy, jak to klasyfikować i jak to, jak to potem rozsądzać ewentualnie, dlatego, że- Czyli uściślijmy. Nie wiemy, dlaczego zapadają konkretne decyzje czy rekomendacje. System… Nie wiemy, jak działa ten system. Naukowcy nie mają pojęcia, co tam się dzieje w środku. Wiemy, co wchodzi, wiemy, jaki jest prompt, no bo człowiek go pisze. Wiemy, co wychodzi po drugiej stronie ChatuGPT. No bo to czytamy, to jesteśmy w stanie ocenić, czy, czy okiem, uchem, yy, piękne obrazy jej tworzy i tak dalej. Ale co się dzieje w międzyczasie? Nie mamy bladego pojęcia i to jest myślę naj-, najciekawsze w tym wszystkim, bo jak skodyfikować, jak oceniać prawnie coś, co, o czym nie mamy pojęcia, jak oceniać coś, co się dzieje w czarnej dziurze? Nie, nie, nie wiemy tego. No, a jeżeli czarna dziura — już wybiegnę trochę w przyszłość, patrząc na Artura — zdecyduje o wyłączeniu sygnalizacji świetlnej na wszystkich skrzyżowaniach, wyłączeniu elektrowni atomowych albo jeszcze jakiś gorszy pomysł wpadnie do głowy, to my się godzimy na taki stan rzeczy? Cała nasza popkultura jest przesiąknięta strachem przed terminatorem, przed robotami, przed sztuczną inteligencją. Boimy się tego, czego nie znamy, nie rozumiemy. Bardziej położyłbym nacisk na to, czego nie rozumiemy. Trochę obłaskawiliśmy w zeszłym roku ChatGPT, trafił pod strzechy. Taksówkarze pytają się i wymieniają się promptami. Naprawdę. Jechałem z takim człowiekiem, który zagadnął mnie i spędziliśmy miłą rozmowę właśnie mówiąc o takich rzeczach. Natomiast to, co, o czym mówimy dzisiaj, jest to niestety prawda. To znaczy, my nie wiemy, co tak naprawdę tam zachodzi. Nie mamy– mówią o tym twórcy Open AI, Aleksander Mądry we wywiadzie z Jackiem Żakowskim we „W Proście” czy w „Polityce”, przepraszam, mówi bardzo jasno. Oni po prostu jako twórcy już stracili nad tym panowanie, więc nie możemy za bardzo wymagać, aby prawnicy rozumieli lepiej to niż twórcy, którzy realnie napisali linię kodu. No dobrze, ale to w takim razie bardzo konkretne pytanie do państwa wszystkich: jak możemy budować modele biznesowe na rozwiązaniach sugerowanych czy podpowiadanych przez coś, nad czym nie mamy kontroli i nie wiemy, według jakich kryteriów to nam podpowiada. Ja bym, jeżeli mogę, to wrzucę tylko moją propozycję. Po prostu nie możemy zrobić nic ze, na automacie, na autopilocie, tylko to musi podlegać nadal kontroli ludzkiej. Czyli nie ma takiej opcji, że zostawiamy decyzyjność oraz zrzucamy odpowiedzialność na twórcę kodu, tylko mówimy: „No, zarządzie, masz takiego doradcę w randze, powiedzmy, nie wiem, członka rady nadzorczej, ale to nie znaczy, że masz być zwolniony z odpowiedzialności, jeżeli on zadecyduje o sprzedaży akcji i to będzie finałowo z– ocenione jako zdziałania szkodę spółki, to ty ponosisz odpowiedzialność, a nie parę linijek kodu.” Takie ja mam zdanie. No Ola, wyobrażasz sobie taką sytuację, że wyrzucą Kowalskiego, bo system nie działa albo zadziałał wadliwie, a on mówi: „No słuchajcie, ale ja to przepuściłem przez nasz moduł sztucznej inteligencji. Nie wiem, dlaczego to to zasugerowało takie rozwiązanie. Nie czuję się winny. Skoro chcecie mnie wyrzucić, to musicie się liczyć z konsekwencjami prawnych”. Ale oczywiście, że wyobrażam sobie sytuację, że wtedy taki pracodawca musi się liczyć z konsekwencjami prawnymi, to, to rzeczywiście tutaj nie wystarczy powołać się na jakieś rozwiązanie IT, no bo to należy traktować w tej chwili jako, jako rozwiązanie IT. Co z tego, że ono jest wyposażone w jakieś moduły sztucznej inteligencji, kiedy tak naprawdę to na tym podmiocie, który na tej podstawie podejmuje decyzje, leży odpowiedzialność. Ja na przykład też sobie nie wyobrażam takiej sytuacji, gdzie na przykład jakiś zaawansowany moduł sztucznej inteligencji byłby wykorzystywany przez sędziów w sądach do wydawania wyroków. Tam też, no, ostateczna decyzja należałaby do sędziego, bez względu na to, jakie, jakie bzdury czy jakie halucynacje by się pojawiły w tym, w tym rozwiązaniu, które by zaproponowała sztuczna inteligencja w kontekście ostatecznego orzeczenia. Więc tu trzeba podchodzić do tego z ogromną ostrożnością i jakby z takim, yyy, z tą starannością po prostu do tego, w jaki sposób normalnie podejmujemy decyzje biznesowe, prawda? No ale Mariusz, tak, masz niezwykłą okazję. Znakomity prawnik obok ciebie siedzi. Czy już korzystałeś wcześniej z porad, sugestii kancelarii prawnej w tym właśnie obszarze? Tak, pracujemy z dwiema kancelariami aktualnie. Ola, za późno. (śmiech) (śmiech) Na razie z dwiema, ale chciałbym. Na razie z dwiema. Dlatego, że to jest tak, tak szeroki temat, a my tak bardzo chcemy się przygotować już na to, co nadejdzie, żeby maksymalnie być, yy, w zgodzie z prawem. Na przykład teraz na stronie mamy, nie, nie wiem, czy co, co Ola na to powiesz, ale na stronie mamy, ponieważ używamy do uczenia AI, używamy próbek głosu dzieciaków, no to oczywiście mamy wszystkie zgody, regulaminy i tak dalej, ale mamy na stronie też nagrany głosem dziecka tekst o tym, jakie prawa według RODO przysługują dzieciakowi. Więc dziecko może sobie, oczywiście jeśli będzie miało taką fantazję, odsłuchać ten tekst prawny, który jest napisany prostym językiem i zdecydować, czy będzie chciało wycofać swoją próbkę głosu, czy, czy też ją zostawić i żeby ona uczyła też nasze AI. Więc my pamiętamy o tym, pilnujemy tego. Nie wiemy, co będzie dalej. Bo ja tak à propos tego, co Artur powiedział, chciałem jeszcze podnieść jedną rzecz, że to, o czym my teraz rozmawiamy, to jest tak zwany weak AI. Za chwilę będzie jeszcze kolejna, kolejny stage, kolejny etap AI A gdybyś był uprzejmy rozwinąć tę myśl? Weak AI to są, to są algorytmy, które są dosyć ograniczone w swojej, w swoim, nie chcę powiedzieć outcome, w swoim efekcie. To znaczy, my wiemy, co wrzucamy, mniej więcej wiemy, czego się możemy spodziewać. I to są algorytmy, które nie myślą. Możemy sobie zadać to pytanie dzisiaj ChatowiGPT, czy on myśli? On powie, że nie myśli. Dziękuję za to pytanie, ale on jednak nie myśli.Ale przed nami jest i o tym się już mówi głośno, coraz głośniej. Przed nami jest coś takiego, co się nazywa super inteligencja, czyli tu Ola mówiłaś o osobowości prawnej. Myślę, że super AI powinno mieć osobowość prawną, dlatego, że to będzie osoba nie z białka, a z innego pierwiastka, ale to będzie osoba, która myśli, która sama się uczy, która decyduje, która ma emocje i tak dalej, i tak dalej. Więc myślę, że to jest ciekawy temat i może, jeśli można coś sugerować tutaj, to chyba powinniśmy myśleć co będzie i reagować na przyszłość, a nie myśleć o teraźniejszości, bo właściwie już jesteśmy przegrani w tej walce. No to posłuchajmy w takim razie, co na to wszystko nasz niezmordowany profesor Rafał Mrówka ze Szkoły Głównej Handlowej, we współpracy z którą przygotowujemy tę audycję. Firmament. Czy możliwe jest uregulowanie w systemie prawnym wszystkich wyzwań wiążących się z rozwojem sztucznej inteligencji? A czy w ogóle możliwe jest uregulowanie w systemie prawnym wszystkich wyzwań wiążących się z rozwojem technologii, która powoli wychodzi z okresu niemowlęctwa i choć niedojrzała, zaczyna rozwijać się w niezwykle dynamicznym tempie? Czy możliwe jest uregulowanie prawne i kontrolowanie technologii, której konsekwencji użycia sami ciągle nie rozumiemy i dopiero stopniowo się ich uczymy? Pytania, które stawiam, oddają mój stosunek do tego problemu. Jestem pesymistą, jeśli chodzi o możliwość regulowania i kontrolowania tego obszaru, co nie oznacza jednak, że nie odczuwam takiej potrzeby. Stawiam zresztą tezę, że w historii ludzkości zawsze zmiany technologiczne, ale także społeczne, wyprzedzały zmiany prawne. W tym przypadku jednak moja obawa jest większa, gdyż zasięg oddziaływania generatywnej sztucznej inteligencji jest większy. Widać zresztą także różną determinację na świecie w regulowaniu tej kwestii. Pytania czy, co, jak bardzo regulować, mogą przecież zdecydować o konkurencyjności i sukcesie przedsiębiorstw w światowym wyścigu o prymat w tym obszarze. Czy zwycięży misja ścisłego, nieformalnego nadzoru państwa i władzy, która wykorzystuje te rozwiązania do swoich celów, jak w przypadku Chin? Czy idea maksymalnej wolności i minimalnych uregulowań, charakterystyczna dla Stanów Zjednoczonych, czy też idea większych regulacji w imię ochrony praw człowieka, bezpieczeństwa, uczciwości, przejrzystości, której pierwszą próbą implementacji jest akt w sprawie sztucznej inteligencji Unii Europejskiej z 2022 roku. Czas pokaże. Czas też pokaże konsekwencje tych podejść. Bez wątpienia żyjemy w ciekawych czasach (muzyka) Wydaje się, że Profesor trafił w sedno i to nie raz, bo wnioskuję z tego, jak kiwaliście znacząco głowami. Artur najmocniej. Znaczy bardzo wiele elementów pan profesor wsadził jak rodzynki w dobre ciasto. Ja tylko odniosę się do, do dwóch. Po pierwsze jest różnica w podejściu w ogóle do patrzenia na kwestie prawne między światem Zachodu a Chinami. Tak ogólnie bym to nazwał. To znaczy model chiński nie jest modelem demokratycznym, jest przełożeniem państwa autorytycz– autokratycznego na grunt prawny. Jednostka jest tam po prostu elementem tylko dążenia pewnego układu politycznego do osiągnięcia jakiegoś poziomu rozwoju. I my nie chcemy być modelem chińskim. Nie powinniśmy patrzeć na ten rozwój i wielokrotnie się bardzo niepokoię, jak ludzie wskazują „A bo w Chinach oni mają na przykład taki rozwój, bo na przykład mają w pogardzie prawa człowieka”. I ja wtedy mówię halo, czy chciałbyś, żeby ktoś cię na ulicy mógł aresztować bez podstawy prawnej, dlatego, że zarabiałbyś dużo pieniędzy dzięki temu, że na przykład byłbyś firmą, która by sprzedawała technologię właśnie do sczytywania emocji na twarzy? No ale Artur, świat nie raz pokazał, że to są rzeczy wtórne. Jeżeli ten model okaże się bardziej konkurencyjny biznesowo, to świat nie będzie się specjalnie tym przejmował. Dlatego też mamy coś takiego jak etyka i moralność oraz mam nadzieję też, że jakiś zdrowy korzeń demokracji, który powie halo w imię zysków i generowania przychodów i wzbogacania się poszczególnych ludzi — to jest bardzo wąska grupa. No, nie możemy zmienić tak naszego prawa, żebyśmy na przykład dali pole popisu wszystkim firmom, które chcą korzystać z naszej prywatności. To się dzieje, już się zadziało w przypadku dużych platform społecznościowych i wiemy, że to był potworny błąd. I teraz bardzo, bardzo z tego powodu cierpimy, więc- Ale cierpimy, wyciągając właściwe wnioski chyba też nie, bo już jest za późno. Cierpimy. Unia Europejska, przypominam tylko, że w ostatnich kilku latach nałożyła kilkadziesiąt miliardów kar na Facebooka, na Metę, na TikToka. I to są początki, dlatego że my naprawdę już nie mamy czasu na to, żeby im pokazywać palcem „Słuchajcie, nie wolno wam”. Przykład z ostatnich dni. Pięć miliardów — ugoda między Googlem a Unią, ponieważ Google oszukiwał użytkowników przeglądarki Chrome, że w modelu incognito, czyli w takim modelu, w którym nikt cię nie podgląda co robisz, oni jednak zbierali dane. W związku z tym to jest kłamanie w żywe oczy i łamanie podstawowych praw oraz oczywiście łamanie regulaminu. Wydaje mi się, że AI to będzie do potęgi właśnie pokazanie tego problemu związanego z próbą generowania przez Big Techy pieniędzy na prywatności, na prawach autorskich. I my musimy się obronić. Nie ma nic lepszego na chwilę obecną niż sojusz Unii Europejskiej, który mówi nie chcemy doprowadzić do supremacji modelu amerykańskiego. Amerykanie jak chcą, to niech sobie wszystko, co jest dostępne, komercjalizują. Natomiast my w Europie mamy po prostu inne poglądy. No właśnie Olu, jak to ma być? Czy ci wielcy, te niedźwiedzie, mają decydować, jaki będzie porządek w lesie? Bo ci mali — patrzę tutaj na Mariusza — niespecjalnie się kwapią do regulowania rynku sztucznej inteligencji, bo uważają, że to będą regulacje, które docelowo im ograniczą możliwości konkurowania z tymi największymi. To będzie inicjatywa oddolna czy odgórna? Jeśli odgórna, kto to ma zrobić? Ale właśnie ja może powiem coś kontrowersyjnego w tej chwili. Nalegalne. (śmiech) Bo ja, patrząc i obserwując prace nad AI Actem i szczególnie tę ostatnią fazę, to i to zahamowanie w ostatniej chwili, pomimo takiego trąbienia na wszystkich forach, we wszystkich mediach, że zakończono właśnie z wielkim sukcesem prace. Tydzień później się okazało, że wcale nie, że największe państwa Niemcy, Francja powiedziały, że jeszcze tam jest problem jakiś.To ja na przykład zaczęłam się zastanawiać, no bo ewidentnie widzimy takie, taką grę, taki taniec pomiędzy rozwiązaniami, które mają na celu właśnie ochronę praw człowieka, zapewnienie jak największej ilości gwarancji ochrony praw podstawowych, w tym AI Act’cie, a z drugiej strony mamy tę tendencję do tego, żeby jednak nie zahamować, nie zabić biznesu tutaj w Unii Europejskiej, żeby nie, żeby ta Unia była dalej konkurencyjna w stosunku do Chin i Stanów Zjednoczonych. Też ten problem, który na ostatnim, na ostatniej prostej się pojawił, czyli ta kwestia generatywnej sztucznej inteligencji w kontekście tego, no jak teraz zabezpieczyć już to, co powstało i czy AI Act nie zabije tego, co-co się stworzyło. I ja mam takie wrażenie, że być może w ogóle ten AI Act nie zostanie uchwalony, to znaczy, że w tym przyszłym roku okaże się, że miękkie prawo zamiast takich rozwiązań jest jedynym rozwiązaniem, które na tym etapie jesteśmy w stanie stworzyć. Coś, co jakby się trochę dzieje oddolnie. No bo proszę zobaczyć, że, że przecież te wszystkie, no my nie działamy w próżni. To znaczy przedsiębiorcy muszą prowadzić swój biznes, określ– tworzyć jakieś regulaminy, gdzie muszą tworzyć jakieś reguły, które, z którymi się stykają ich, ich klienci. I tam już są informacje o tym, nie wiem, ChatGPT przecież uregulował w regulaminie, do kogo należą prawa autorskie do promptu, do kogo należy prawo autorskie, do tego wytworu, który, który dostajemy po wpisaniu, yy, promptu. Więc jakby siłą rzeczy ten biznes zaczyna sam tworzyć jakieś regulacje. Zresztą Unia Europejska zachęcała do pracy nad tym i przyjęciem tego AI Pactu, czyli takiego porozumienia, które miało przygotować firmy, czy to duże, czy małe, do wdrożenia AI Actu w przyszłości. I być może oczywiście to jest jakieś gdybanie, ale być może się okaże, że, że my wchodzimy w jakąś taką fazę, gdzie to tylko miękkie rozwiązania będą pomagały biznesowi przejść przez ten okres, kiedy my jeszcze do końca nie wiemy, czym jest ta sztuczna inteligencja i w jakim kierunku idzie i pozwoli na znalezienie jakiegoś takiego rozsądnego kompromisu pomiędzy niezabijaniem aktywności biznesowej przedsiębiorców, a po prostu działaniem w jakiś takich dobrych, dobrych praktykach, bo ja w tej chwili jestem bardzo sceptyczna, patrząc na to, jak te prace nagle zmierzają w takim dziwnym kierunku Na tej ostatniej prostej, gdzie wydawało się, że żeśmy już odtrąbili sukces kilkakrotnie, że jesteśmy pierwszym regulatorem na świecie, który udało się, któremu udało się uregulować sztuczną inteligencję Zerkam tutaj na Mariusza. Czy Ty się lepiej czujesz na takiej legislacyjnej pustyni w tym obszarze, czy w tym gąszczu takich regulacji, które pewnie w dniu, w którym zostaną stworzone, już będą nieaktualne? Tak, tak, tak, to prawda, zgadzam się z tym, że-że one będą nieaktualne i my tworząc produkt, musimy polegać na zdrowym rozsądku, na jakimś humanizmie. Co też jest urocze, że znowu się te hasła takiego pierwotnego porządku pojawiają i znowu mają znaczenie. Ja myślę sobie tak, że czasu mieliśmy sporo, w sensie my jako ludzkość, no bo o AI mówi się od lat pięćdziesiątych. Turing zaczął, zaczął wtedy temat i było parę jeszcze tam miejsc po drodze, żeby mówić o legislacji, mówić o tym, co się wydarzy z AI i jak możemy się do tego przygotować. Nie zrobiliśmy tego ćwiczenia. Szkoda. I tak sobie myślę, że tak jak w Mozopotamii siedziało sobie dwóch panów i wymyślili koło i mówili „O! To jest koło i to będzie ciekawe, co to będzie. No pewnie tam będzie łatwiej przewozić jakieś towary”. Nie mieli pojęcia, co wymyślili, James Watt też nie miał pojęcia tak naprawdę, co wymyślił, robiąc maszynę parową i otwierając rewolucję przemysłową. I ja myślę, że my też nie boimy się chyba przyznać, że my nie wiemy. A jedno krótkie pytanie, takie porządkowe, a Twoi klienci pytają o to? Mają taką świadomość i mówią „Panie prezesie, a jest pan właścicielem danych treningowych? Czy pan wie, co w tym black boksie się dzieje i w jaki sposób powstała aplikacja, którą de facto będziemy, którą będziemy oferować naszym dzieciom?” To jest bardzo dobre pytanie, bo szczerze ludzi to nie obchodzi. To znaczy nasi klienci kupują rozwiązania i tak jak rozmawiamy z nimi, to oni potrzebują rozwiązania. Czyli idziemy do sklepu po to, żeby kupić dziurę w ścianie, żeby tam powiesić na tej ścianie obrazek, a nie potrzebujemy wiertarki w domu. Tak jak tak samo nasi klienci potrzebują mieć dzieciaki, które, czy pomoc w tym, żeby dzieci nie miały wad wymowy. Czy to będzie weak AI, czy to będzie super AI, czy to będzie jakaś inna AI, czy to w ogóle nie będzie AI, to tak naprawdę rodziców nie interesuje, oni chcą mieć zdrowe dziecko, zdrowe, fajne dziecko, które mówi wyraźnie i to im obiecujemy. Co, jak my to zrobimy, to jest nasza sprawa, nasza w sensie twórców, ale też nasza odpowiedzialność. Więc myślę, że ten temat AI jest jakimś takim buzzwordem, który na pewno jest bardzo popularny i jeszcze będzie odmieniany pewnie będzie przez przypadki na tej antenie i na wielu innych. Pytanie, czy to takich ludzi, którzy będą korzystali na przykład z naszej aplikacji, czy ich to interesuje, czy oni potrzebują gotowego rozwiązania, które działa lepiej niż do tej pory? No, najwyższy czas, żebyśmy złapali trochę oddechu. Mam nadzieję, że artysta, który za chwilę wybrzmi, jest z krwi i kości.Firmament. Czas na połączenie z odległymi krainami. W Krakowie jest już Jarosław Królewski, założyciel i prezes Synerise. Jarku dzień dobry. Dzień dobry, witam państwa. No mam nadzieję, że przysłuchiwałeś się krótko naszej rozmowie i mamy taki dylemat i pytanie, które nie ukrywam, zadam Tobie, bo ostatnio Cię słyszałem na jednym z webinarów organizowanych dla studentów SGH w Warszawie. Powiedziałeś, że jeżeli my ludzie, twórcy sztucznej inteligencji nie znajdziemy sposobu na to, żeby tym zarządzać w taki sposób, żebyśmy korzystali z tego głównie, a nie żeby przysparzało nam to tylko zmartwienia i kolejne siwe włosy, to po prostu nie zasługujemy jako cywilizacja na to, żeby przetrwać na Ziemi. No strasznie prowokacyjnie. Zmieniłeś trochę już zdanie, czy wręcz wyostrzasz ten swój punkt widzenia? Nie, absolutnie nie zmieniłem zdania. Uważam, że absolutnie tak jest. Czyli co? Z nami koniec w niedalekiej przyszłości? Nie. Oczywiście, że uważam, że sobie z tym poradzimy. Uważam, że to jest kolejne wyzwanie na naszej drodze ewolucji, która przed nami. I myślę, że powinniśmy do tego podejść jako właśnie do tego słowa wyzwanie bardzo poważnie z tego względu, że no nie możemy sobie pozwolić na to, żeby jakby coś, co wyprodukowaliśmy, żeby doprowadziło do naszej zagłady. Bo tak jak powiedziałem, jeśli tak się stanie, to znaczy, że zaniedbaliśmy pewne procesy intelektualne jako ludzie. No i trochę tak paradoksalnie, metaforycznie, jak powiedziałem, no, zgodnie z jakimiś tam takim podejściem bardzo deterministycznym, jeśli chodzi o technologię do świata, no to powinniśmy z niego zniknąć No Jarku, ale wiesz co, to już zapytam Cię wprost, bo tutaj jedną z konkluzji naszej dyskusji jest to, że „Toto” jak literacko przetłumaczyliśmy na język polski sztuczną inteligencję, produkuje te swoje rozwiązania w sposób dla nas, no nie do końca jeszcze uświadomiony. My nie wiemy, jak i dlaczego pewne procesy czy pewne sugestie wynikające z pracy tych algorytmów powstają, to w jaki sposób my możemy to zagospodarować bezpiecznie dla siebie? Jak znaleźć balans pomiędzy bezpieczeństwem ludzi a bezpieczeństwem biznesu? Ja myślę, że przede wszystkim powinniśmy być bardzo racjonalni. Też sumiennie oceniać to, jakie mamy taką własne właśnie– w odpowiedni sposób siebie czytamy. No dzisiaj mówimy na przykład o kwestii dotyczącej tego, czy my dokładnie rozumiemy to, co się dzieje w sieciach neuronowych. Bardziej głębokich, mniej głębokich. Gdybyśmy porównali to do ludzi, nawet na ludzi na poważnych stanowiskach, na ludzi, którzy budują poważne firmy i tak dalej. Czy my mamy dzisiaj odpowiedź na to w stu procentach, dlaczego ludzie myślą w taki, a nie inny sposób? Dlaczego wynajdują takie, a nie inne rzeczy? Dlaczego się zakochują? Dlaczego stają się czasami dobrymi ludźmi? Dlaczego popełniają przestępstwa? Dlaczego robią inne rzeczy, które są niespodziewane? Nie wiemy tego więc my tak naprawdę żyjemy trochę w takim świecie probabilistycznym. Chcielibyśmy, żeby on był binarny, w stu procentach zrozumiały. Ale podobnie jak dzisiaj, w pewnym sensie nie rozumiemy niektórych procesów, które zachodzą w przypadku sztucznej inteligencji szeroko rozumianej. Tak naprawdę musimy przyznać, że między nami, że sami siebie też do końca nie rozumiemy. Więc ja oczywiście nie czuję jakiegoś takiego mocnego powodu strachu z tego powodu. Dlatego podchodzę do tego bardziej praktycznie, pragmatycznie, żebyśmy mieli taką możliwość budowania mechanizmów, które będą zakładały, że ten pewien rodzaj hazardu gdzieś tam jest No Jarku, ale kto ma ten obszar w takim razie uregulować? Bo tutaj próbujemy dociec do tego w tej naszej dyskusji i na razie słabo nam idzie. To ma być inicjatywa odgórna, czy to ma być inicjatywa oddolna? Mali przedsiębiorcy nie chcą tych regulacji, bo obawiają się, że będzie im de facto dostęp do rynku bardzo utrudniony. Z kolei wielcy urządzą ten świat pod siebie wyłącznie. Znaczy po pierwsze ja uważam, że trzeba byłoby zdefiniować dobrze, co oznacza regulacja. Ja myślę, że powinniśmy przede wszystkim mówić o przejrzystości, zrozumieniu, explainability w niektórych aspektach, w kontekście tego, co chcemy osiągnąć. I ja jestem zdecydowanie za tym, że kiedyś powstanie taka samoorganizacja, jak mamy w przypadku organizacji typu na przykład Narodów Zjednoczonych czy innych, która będzie rzecz ujmując, zajmowała się tylko paneuropejsko, panświatowo sprawami sztucznej inteligencji, wyjaśnianiem tej sztucznej inteligencji, pokazywaniem w przejrzysty sposób, do czego to prowadzi i czego robić nie można na przykład. No i teraz to jest dzisiaj tak naprawdę stosowane już w wielu aspektach. Mamy porozumienia teoretyczne dotyczące, nie wiem, broni masowej zagłady, oczywiście lepiej lub gorzej respektowane. Mamy dzisiaj porozumienia dotyczące broni biologicznej lepiej lub gorzej respektowane i tym podobne. To nie jest tak, że my dzisiaj — nie są prowadzone badania nad pewnymi aspektami naszego życia, czy na przykład broni biologicznej, czy nie są prowadzone badania nad, powiedziałbym, bronią masowej zagłady. Oczywiście, że są, ale są pewnego rodzaju regulacje, które tyczą się tego, w jaki sposób mamy koegzystować w pewnej rzeczywistości. I myślę, rzecz ujmując, to jest kwestia do wypracowania, czy dzisiaj znane są osoby mi albo ktokolwiek na świecie wie, jak te zasady powinny już teraz wyglądać? Myślę, że nie. Myślę, że do tego dojdziemy i musimy solidną pracą, jakby próbą kontrybucji do tego, co osiągamy w tych dziedzinach, ten dialog po prostu prowadzić. Więc ja bym do tego podchodził w taki sposób bardzo konstruktywny i pozytywistyczny mimo wszystko, bo z drugiej strony każdego rodzaju bardzo mocne odchylenia w dowolne ekstremum może doprowadzić do tego, że za chwilę zaniechamy rozwoju tego, tej technologii. Ale nie mówię o zaniechaniu tego gdzieś tam w podziemiach, tylko zaniechaniu w mainstreamie, bo nagle wystraszymy się tego, co jest tak naprawdę możliwe. A myślę, że jednym z takich zadań do unlockowania w naszym życiu i poznaniu mocy człowieka jest to, żeby po prostu zrozumieć, jak pewne rzeczy i procesy działają. I myślę, że sztuczna inteligencja jest taką dziedziną, w której dążymy do tego, żeby lepiej rozumieć ten świat Natomiast mamy też taką tendencję, że staramy się tą sztuczną inteligencję bardzo mocno porównywać do człowieka. Ja myślę, że to jest przede wszystkim błąd. Ja myślę, że to jest zupełnie coś innego. To jest nowa jakość i niekoniecznie uważam, że wszystkie elementy z naszego po prostu takiego zwierciadła życia powinny być w niej uwzględnione i nie będą. Ja myślę, że czasami wręcz potrzebujemy sztucznej inteligencji, która nie będzie miała tego humanistycznego aspektu No, więc w tej sytuacji może człowiek nie powinien w ogóle się zabierać za regulowanie kwestii sztucznej inteligencji. Niech ona sama sobie ureguluje to swoje jestestwo.Hmm. Dobrze myślisz. Natomiast uważam, że raczej będzie kolaborowała. Mhm. Akurat. Jarku, ostatnie pytanie w takim razie, bo wielokrotnie powiedziałeś, że trzeba, należy, wypadałoby. Kto ma to zrobić? Kto ma uregulować? Kto ma dać ten pierwszy impuls do tego, żeby nadać temu rynkowi jakąś bardziej cywilizowaną formę? Ja uważam, że to się stanie wcześniej czy później. Bardzo mi ciężko powiedzieć, kto będzie tak naprawdę tym liderem, powiedziałbym takiego intelektualnego konsorcjum. Natomiast wydaje mi się, że, yy, że nie powinniśmy tego też jakoś sztucznie przyspieszać. Natomiast powinniśmy po prostu przyglądać się temu, co, co się dzieje. Bo prawda jest też taka, że najlepszym też regulatorem jest rynek. Jakby są ludzie, są biznesy, są organizacje, są to tak naprawdę testy tego, co tak naprawdę ta sztuczna inteligencja potrafi lub nie potrafi. Bo pamiętajmy też o tym, że społeczeństwo ma w sobie taki element oporu na pewnego rodzaju rzeczy i przykładowy case dotyczący fake newsów, fake postaci, fake awatarów, klonowania głosu i tym podobne. W pewnym momencie może pojawić się taki naturalny rezystans do tego, bo po prostu zaczniemy się gubić w tym świecie. Więc ja bym tak naprawdę przyglądnął się temu eksperymentowi i myślę, że, ee, duże firmy, ale też organizacje, powiedziałbym pozarządowe i organizacje, które zajmują się po prostu prawami człowieka, powinny mieć, że tak powiem, patrzeć po prostu na to, jak się to rozwija, ale też szybko się uczyć. Bo prawda jest taka, że bardzo trudno będzie zrobić taką legislację, która będzie mało elastyczna, ale ta legislacja będzie musiała uwzględniać wiele różnych czynników, które teoretycznie mogą się dopiero pojawić, żeby ona po prostu miała sens. Więc duża praca przed nami, jeśli chodzi o szkicy Framework, takiego porozumienia, ale ja uważam, że jest to oczywiście możliwe Jarek, bardzo, bardzo dziękujemy za bardzo interesującą i inspirującą dyskusję, już dzisiaj zapraszam Cię do weryfikacji tych naszych poglądów za rok w naszej kolejnej audycji. Także życzę Ci dobrego roku. Dziękuję za rozmowę i do usłyszenia wkrótce. Serdecznie dziękuję również. Dziękuję. Hej! A teraz oddajmy głos portalowi mamstartup.pl, który zapytał prawników o świadomość prawną odnośnie wykorzystania AI wśród startupów, a opinie zebrała Kato-Katarzyna Krogulec. (muzyka) Firmament. Sztuczna inteligencja, czyli AI, a właściwie przeróżne algorytmy nie są niczym nowym w świecie startupów. Od lat są wykorzystywane w wielu dziedzinach, chociażby przez branżę e-commerce. Na przykład automatycznej rekomendacji produktów w sklepach online. Już w 2013 roku Elon Musk powiedział, że autopilot to przydatna rzecz w samolotach i powinniśmy mieć go również w autach, po czym rozpoczął pracę nad autopilotem w Tesli i zastanawialiśmy się nad tym, jak sztuczna inteligencja zachowa się na drodze w ekstremalnych sytuacjach i kto będzie ponosił odpowiedzialność za jej decyzje. Niestety nie wiemy tego do dziś. Różnorodność aplikowania rozwiązań powstałych w oparciu o sztuczną inteligencję powoduje wiele wyzwań natury prawnej i ciężko się w tym odnaleźć. Zwłaszcza gdy przy okazji prawo nie nadąża za technologią. Dlatego wszyscy czekamy na to, co może wnieść AI Act. Świadomość prawna wśród startupów generalnie niestety nie stoi na wysokim poziomie. Często spotykamy się z historiami, w których founderzy polegli na kwestiach prawnych wprowadzając swoje produkty czy usługi na rynek, czy też układając strukturę spółki, podpisując umowy z inwestorami lub partnerami. Dlatego polecamy konsultacje z dobrymi prawnikami, jeśli ktoś planuje korzystać z AI w swoim biznesie. Dziękujemy bardzo. Wracamy do naszej dyskusji. Uśmiechacie się od ucha do ucha. Co takiego Mariusz Cię tak rozbawiło w tej, no w tej opinii, w tej, w tym sondażu? No konsultacje absolutnie są potrzebne i warto o tym pamiętać. Ja sobie pozwolę się nie zgodzić z opinią, że startupy nie mają świadomości. Wydaje się, że w większości mają. Zwłaszcza, że większość startupów, czy zaryzykuję stwierdzenie, że prawie wszystkie w swoich prezentacjach czy w swoich opisach używają tego skrótu AI. Bardzo, yy, rzadko tra-trafa się biznes, który nie ma AI jakiegokolwiek w swoim portfolio, dlatego, że to jest tak wygodne i tak cudownie proste narzędzie, że aż kusi się do tego, żeby, żeby z niego używać. I moim zdaniem to jeszcze nawiązując do tego, co pan profesor powiedział, yy, moim zdaniem to są cudowne czasy przed nami i bardzo mi się podoba ten optymizm profesora, yy, że przed nami jest wielka rewolucja, ale nie jakaś taka straszna, terminatorowa, tylko taka właśnie fajna, że ludzie nagle mogą tworzyć rzeczy, wpisywać prompty, uruchamiać swoją wyobraźnię, robić rzeczy, o których wcześniej nie mieli pojęcia albo nie mieli warsztatu, żeby je robić. Yyy, moim zdaniem trzeba czerpać garściami i się uczyć i się uśmiechać. Artur, a Twoja wizja przyszłości? Co może pójść nie tak, jeżeli chodzi o rozwiązania w zakresie sztucznej inteligencji? Bo my nawet nie zauważymy, kiedy już będzie za późno z tymi swoimi pararegulacjami. Jakoś w ogóle nie boję się tej wizji utopii totalnego przejęcia władzy na świecie przez sztuczną inteligencję, ponieważ jeżeli to się stanie, to my faktycznie jako ludzkość zginiemy. Czyli jak gdyby trochę jak z bomby atomowej. Jeżeli ona zostanie wystrzelona i upadnie, to mamy kilka sekund na to, żeby po prostu położyć się nogami w stronę wybuchu i tyle. Jakoś nie będziemy- I nagrywać prześcieradłem. I nagrywać prześcieradłem, tak jak nas na lekcjach przysposobienia obronnego w słusznych czasach PRL uczono. Więc ja się tego nie boję. W momencie, kiedy ta sztuczna inteligencja jednak, a ja przychylam się do tego zdania, będzie po prostu chińskim pokojem, czyli ona będzie bardzo wiernie naśladowała, ale ona nie ma inteligencji i nie ma żadnego, żadnej wolnej woli i nie ma świadomości i nie będzie planowała, nie będzie robiła tych wszystkich rzeczy, których my jej przypisujemy jako ludzie, bo my ją bardzo silnie antropomorfizujemy. Tak.To ono po prostu będzie genialnym kalkulatorem, takim jak-i, z jakiego korzystamy licząc walutę. I n-nic się z tego nie urodzi, poza to, że ono będzie, ta sztuczna inteligencja. Co w ogóle uważam, bardzo nietrafny jest sam skrót, bo to nie jest ani sztuczna, ani inteligencja, ale tak staramy się jakoś to nazywać. Więc ten algorytm będzie nam pomagał w patrzeniu w dużą ilości PDF-ów, podejmowaniu decyzji na podstawie ogromnej ilości danych. Ale on nie stworzy niczego wielkiego, nie stworzy oper, nie wybuduje pomników, nie namaluje Kaplicy Sykstyńskiej i tak dalej, i tak dalej. Czyli z naszego punktu widzenia nie stanie się ten najbardziej czarny sce– nie zaistnieje ten scenariusz, dlatego, że ta sztuczna inteligencja, nawet w tym modelu super rozwiniętym, general artificial intelligence, jak sobie ją w branży określamy, czy to będzie super osobliwość, która zaistnieje prawie na boskich parametrach. Moim zdaniem, jeżeli dojdziemy do tego etapu, to naprawdę to nie będziemy już musieli się niczym martwić, bo prawdopodobnie w ułamku sekundy nagle nasze życie zmieni się, albo też wejdziemy w zupełnie nowy etap rozwoju ludzkości, który być może jest nam pisany, czyli po prostu przestaniemy być istotami opartymi o białko, a staniemy się istotami opartymi o krzem, czyli po prostu wymigrujemy w stronę chmury i tam po wieki wieków będziemy po prostu jakąś symulacją. Ja wiem, że na chwilę obecną to jest po prostu totalna utopia, ale kurde, przecież nikt nie powiedział, że my do końca będziemy żyli w swoich ciałach, bo już teraz dokonują augmentacji. Ty masz okulary, ja mam okulary, niektórzy z nas znoszą aparaty słuchowe. To jest już wspomaganie naszego organizmu. Kolejnym etapem może być na przykład dodanie nam możliwości nieśmiertelności, czyli zdjęcie okowów po prostu gnicia naszego organizmu i powolnego się stapiania i po prostu umierania Artur, wejdę ci w słowo, bo mam wrażenie, że Ola delikatnie pobladła. (śmiech) Czy to prawda? Czy ta wizja przeraża cię Olu? Tak, ta wizja jest przerażająca dla mnie. No z uwagi na takie bardzo moje humanistyczne podejście jednak i wiarę w to, że we, no we wszystkich trudnościach, żeśmy jako homo sapiens sobie radzili. Więc ja trochę tak jak Jarek Królewski wierzę w to, że, że my jednak jesteśmy na tyle silni swoją zdolnością intelektualną czy wspólną zdolnością intelektualną całej ludzkości, żeby, żeby jednak okiełznać i zrozumieć to, co tworzymy, te, te algorytmy i nie dopuścimy do takiej sytuacji, że, że po prostu one staną się mądrzejsze od nas. Oczywiście, że przed nami jest bardzo dużo wyzwań w tej chwili. To znaczy, ja na przykład nie wiem, czy to generatywna sztuczna inteligencja będzie tym problemem za chwilę, czy to jednak nie okaże się, że predykcyjna sztuczna inteligencja, którą do tej pory żyliśmy, może się okazać być wielkim problemem, kiedy się okaże, że jednak zaistnieją komputery kwantowe. Bo, bo może wtedy się okazać, że generowanie tych wszystkich danych i ich analizowanie przez sztuczną inteligencję to się stanie problemem, a nie to, czy ona jest w stanie w tej chwili stworzyć nowy, nie wiem, nowe dzieło Beethovena czy, czy, czy, czy Rembrandta, bo, bo nie wiem, zebranie danych ze wszystkich tomografów komputerowych na świecie i zagregowania informacji o tym, co sprzyja rozwojowi, yyy, jakichś tam chorób, może być pożyteczną wiedzą bardzo, ale może być też w nieodpowiednich rękach bardzo złą informacją. Tak więc też te — myślę na przyszłość, o rzeczach, o których zaczynamy po cichu, jakoś tam rozmawiać, ale i co do rozwiązań prawnych, które być może się za chwilę pojawią, czyli na przykład stworzenie jakichś nowych praw osobistych, typu na przykład prawo do prywatności myśli czy prawo do tego, żeby właśnie w kontekście tego, co powiedziałeś przed chwilą, czyli tego pluginu do-do-do mózgu, czyli prawo na przykład do nieingerowania w treść myśli. Takie rzeczy, o których żeśmy do tej pory nie myśleli i nawet nie, nie, nie, jeszcze kilka lat temu w ogóle wydawały się science fiction prawniczym, a w tej chwili jakoś tam nieśmiało są podnoszone na razie jakoś tam w doktrynie akademickiej. Więc na pewno ta era jeszcze komputerów kwantowych, gdzie pewnie wy jako informatycy bardziej wiecie ode mnie, na ile to jest zaawansowany produkt w tej chwili. Ona też przyspieszy nasze, nasze myślenie o tym, gdzie leżą, gdzie leżą zagrożenia. Ale pomimo tego ja, ja jednak jestem, jestem bardzo humanistycz– prohumanistyczna w tym zakresie No krew wróciła (śmiech) w policzki, także jestem uspokojony. Mariusz patrzę na Ciebie dlatego, że stanąłeś w takim wyścigu, w którym dzisiaj ta sztuczna inteligencja jest wyróżnikiem, który daje Ci trochę splendoru. Ten biznes taki postrzegany jest jako taki bardziej sexy niż inne. Pojawiają się pieniądze od inwestorów. Ale to jest chyba chwilowe tylko, bo za chwilę ten, kto nie będzie miał żadnego modułu sztucznej inteligencji, nie może postrzegać się jako konkurencyjny na jakimkolwiek rynku biznesowym. Zgadzasz się? Tak. No, myślę, że myślę, że ktoś, kto nie będzie miał AI za chwilę, przegra ten wyścig już na starcie, więc na to sobie na pewno nie można pozwolić. Póki co jest to jeszcze jakiś wyróżnik, zwłaszcza że my tworzymy to, te nasze algorytmy od zera, czyli my nie bierzemy gotowców, tylko my uczymy sami nasze algorytmy i mamy swój własny algorytm, który mamy tam za chwilę będzie opatentowany, czy właściwie już jest. I to jest na pewno przyjemne, ale to też pokazuje, że też my przegrywamy. My jako, jako biznes, jako ten mały biznes z ambicjami wielkimi, tak dużymi jak, jak OpenAI, ale jednak z odrobinę mniejszymi funduszami. I to skazuje nas na przegraną w tym wyścigu. Czyli jednak trzeba patrzeć na, na tych wielkich i od nich się uczyć i od nich pożyczać te rozwiązania. No właśnie, wejdę ci w słowa na sekundkę. Czy nie boisz się tego, że się napracujecie?Namęczycie, natworzycie, napatentujecie i potem się okaże, że ktoś w tym jednym z tych wielkich Big Techów wrzuci do sztucznej inteligencji model Wasz biznesowy i sobie stworzy, zanim Wy wyjdziecie na rynek z nowym produktem, a on sobie stworzy własne, jeszcze lepsze konkurencyjne dziecko. Co rano Jarku, yy, kiedy wstaję, robię sobie espresso i odpalam radio trzy, pięć, siedem, sprawdzam internet i czekam czy się taka aplikacja jak nasza nie pojawiła. Yyy, być może się pojawi, być może już- A właśnie, masz taką wiedzę? Czy gdzieś na świecie ktoś pracuje nad podobnym rozwiązaniem? Są takie próby na kilku uniwersytetach, to wiem na pewno, z kilkoma też rozmawiamy, ale to też pokazuje, że AI za chwilę przestanie być tym wyróżnikiem i musimy poszukać naszej unikalności gdzie indziej. Być może jest to kultura organizacji, być może jest to branding. Być może jest to jakieś nowe podejście do klienta, być może są to jakieś nowe drzwi, o których jeszcze nie wiemy, że one tam istnieją. Brrr, jakie to łudztwo! (śmiech) Ale to mi się bardzo podoba. To mi się bardzo podoba, bo, bo to znaczy, że my nie możemy, nie możemy się zatrzymać. To znaczy to, że mamy AI to nie znaczy, że okej, już mamy AI to już wygraliśmy. Nie, to jest początek wyścigu i tak naprawdę my nie wiemy, jak to się skończy. Trzeba ciągle, ciągle być czujnym, ciągle robić ten refresh w przeglądarce i, i się uczyć. Zobaczymy co, co nowy dzień przyniesie Artur, wróćmy jeszcze na chwilę do tych wielkich, największych. Tych, którzy narzucają kierunek i tempo tego wyścigu, bo tutaj takie żuczki jak Mariusz, oni się tam biją, starają się wdrapać na to drzewo, żeby zaistnieć i sprzedawać jak najlepszy produkt klientom. Natomiast karty rozdają ci najwięksi. O co chodziło w sprawie Altmana? Bo jedną z najbardziej pociągających intelektualnie teorii jest to, że on chciał rozwijać coś, czego już rozwijać nie powinniśmy, bo sami sobie zagrozimy. Czy to prawda? Czy to są takie po prostu biznesowe porachunki, a na końcu chodzi o kasę? Na razie nie wiadomo. Na razie nie mamy nawet prze– jak to się ładnie mówi –wyligowanych, czyli takich gdzieś tam plotek, które wychodzą z obozu Open AI. Wszystko- Wyciekły. Wycieków. Wszystko wskazuje na to, że doszło do jakiegoś małego, małej próby sił, z której zwycięsko wyszła opcja probiznesowa. Faktycznie, Altman ma w sobie bardzo dużo takiej woli po prostu komercjalizacji. Mówi się o tym, jedna z opcji brzmi tak, że on po prostu faktycznie zaczął dociskać ten pedał gazu na taką skalę, która się nie spodobała jego koleżankom i kolegom, którzy przypomnijmy, że w wielu po prostu wypadkach są to naukowcy, którzy przyszli tam z kuszeniem możliwością rozwoju Open AI, który już nie jest ani open a jaj trochę jest, natomiast, no, zaprzedało się ko-korporacji Microsoft za trzynaście miliardów. Microsoft stał się głównym inwestorem i teraz komercjalizuje też na potęgę już, dodając do swoich rozwiązań. My mam-mając Worda u siebie, mając system operacyjny Windows korzystamy z rozwiązań Open AI. Niemniej jednak pytanie brzmi następująco: czy taka firma, która ma bardzo skomplikowaną strukturę prawną, niby jest fundacją, potem przestała nią być, teraz jest firmą nastawioną na rozwój i komercjalizację. Czy ona ma być tą, która narzuca reguły i prawidła rozwoju całej branży? To jest pierwsze pytanie. Drugie jest takie: Sam Altman dokonał takiej pielgrzymki w czasie ostatniego lata po Europie, teoretycznie mówiąc oficjalnie, że szuka miejsca na otworzenie biura. Nieoficjalnie było wiadomo, że on po prostu jeździł i nagabywał różnego typu wysoko postawione osoby w Europie do tego, żeby przychylały się do jego wizji. On chciał, aby kodyfikować to prawo i zamykać prawo, ale na taką spo– w takim, w takim kierunku, w którym było wygodnie Open AIowi. I to będziemy widzieli na też szerszą skalę od tych największych big techów. One bardzo chcą, żeby pozamykać tą branżę, tak żeby nie miało dostępu właśnie ma-mali, mniejsi i ci, którzy są dopiero aspirujący. Bo oni już mają potęgę, mają dane, mają pieniądze i jeżeli uda im się to bardzo dobrze skomercjalizować, co pokazują wyniki Open AI i Microsoftu, to się już dosyć dobrze dzieje. No to oni wygrają ten wyścig, więc zamykanie, próba zamknięcia, zalokowania prawnego jest jedną ze strategii biznesowych. Zbudowanie takiej przewagi kom– konkurencyjnej jest oczywiście bardzo niefajne dla wszystkich, którzy aspirują. À propos jeszcze Unii i AI Actu. Ja uważam, że to, co robi Unia, jest szalenie niestety potrzebne, bo alternatywą jest model amerykański albo chiński I jeżeli ktoś mówi, ale to będzie niestety nie sprzyjało konkurencyjności startupów, to ja mówię wprost: zapraszam do Ameryki, zapraszam do Chin. Nie ma konieczności robienia biznesu w Amery– w Europie. Można robić to na innym kontynencie. Jeżeli ktoś uważa, że może wziąć dane na przykład związane z tym, czy w Twojej okolicy są pedofile, narzucić to na mapę Google’a i sprzedawać to, to ja mówię chyba nie do końca o to chodzi w, mm, w prawach ludzkich i w możliwości komercjalizacji tak bardzo jednak intymnych informacji. Więc tu uważam, że mamy wybór. Po prostu jesteśmy z korzenia europejskiego i mamy taki pogląd na to, czym jest prywatność, czym jest prawo człowieka. Jeżeli ktoś chce co innego robić i uważa, że to go ogranicza, proszę bardzo, są inne jeszcze możliwości i kolebki robienia biznesu Znakomite podsumowanie naszej dyskusji. Aleksandra Alejtnerk, Artur Kurasiński, Mariusz Pitura. Dziękujemy. Bardzo dziękujemy. (muzyka) Firmament. Bardzo dziękujemy za wspólny wieczór ze sztuczną inteligencją. Zapewniam, że żadna z treści, którą usłyszeliście nie została wygenerowana przez maszyny, ale była czysto ludzką pogadanką o tym, co ważne. A może nie? A po więcej tego typu treści odsyłamy do naszych podcastów. Tam cała audioteka rozmów o biznesowych wyzwaniach. Adam Matyjek, Paweł Sołtys, Jarosław Sroka.