AI w biznesie oznacza przyspieszenie marketingu, sprzedaży, analizy informacji i obsługi klienta. Jednocześnie podnosi jednak ryzyko błędów, których nie da się łatwo wyjaśnić ani naprawić jak typowej usterki IT.
Dojrzałe wdrożenie nie sprowadza się do „używania AI”, tylko do zarządzania nią: przypisania odpowiedzialności, pilnowania jakości danych, ograniczania nadużyć oraz utrzymania kompetencji ludzi podejmujących decyzje na podstawie wyników modeli.
Sprawdź nasz tekst główny z tej serii tematycznej:
AI najszybciej daje zwrot w zadaniach skalowalnych: tłumaczeniach, wariantowaniu treści, researchu, przygotowaniu szkiców dokumentów czy porządkowaniu informacji. W firmach działających międzynarodowo skraca to cykle pracy i ułatwia testowanie wielu wariantów działań bez rozbudowy zespołu.
Równolegle rośnie ryzyko „oddania myślenia” narzędziu. Jeśli praca sprowadza się do akceptowania propozycji, spada nawyk krytycznej weryfikacji, klarownego pisania i formułowania wniosków. Do tego dochodzi ryzyko uzależnień od technologii – szczególnie u młodszych użytkowników.
Bezpieczny kompromis to projektowanie procesu: AI przyspiesza, ale nie przejmuje odpowiedzialności. W zadaniach krytycznych potrzebne są punkty zatrzymania – człowiek weryfikuje, zatwierdza i bierze konsekwencje, zamiast działać na autopilocie.
„Technologie zmieniają nasze mózgi, ale też uwalniają je do nowych wyzwań; pytanie brzmi nie czy IQ czy AI, tylko jakie IQ przy takim AI” – Rafał Mrówka, profesor Szkoły Głównej Handlowej, kierownik MBA for Startups, zajmuje się wpływem technologii na kompetencje.
Największe ryzyka pojawiają się tam, gdzie koszt błędu jest wysoki: administracja publiczna, zdrowie, bezpieczeństwo, finanse. Przykład duński pokazuje, że algorytm używany przez urząd skarbowy może generować masowe, niesłuszne oskarżenia, a skutki społeczne bywają dramatyczne. W innych obszarach stawką bywa życie i zdrowie.
Dodatkowym problemem jest „black box” – brak jasnej odpowiedzi, dlaczego model podjął daną decyzję. Bez reguł rynkowych naturalną siłą napędową pozostaje zysk, a nie bezpieczeństwo, więc samoregulacja biznesu będzie ograniczona. Globalny charakter technologii utrudnia też egzekwowanie zasad.
Kluczowe staje się egzekwowalne przypisanie odpowiedzialności po stronie podmiotów wdrażających i używających modele. W Europie w tym kierunku idą regulacje, w tym AI Act, którego wdrażanie jest rozłożone w czasie. Bez realnych konsekwencji dla naruszeń przepisy pozostaną łatwe do obchodzenia.
„Jeśli AI będzie pod kontrolą człowieka i powstaną normy oraz standardy, do których będą stosować się wszyscy, będę spokojniejszy” – Tomasz Plata, wiceprezes Autenti, firmy rozwijającej rozwiązania do podpisu elektronicznego.
Wiele modeli uczy się na danych z internetu, skrapowanych z różnych źródeł, w tym z Wikipedii. W efekcie systemy odtwarzają nie tylko język, lecz także uprzedzenia i szkodliwe wzorce: rasizm, seksizm, przemoc werbalną czy manipulacje. Potem dokładane są warstwy ograniczeń blokujących niepożądane odpowiedzi, co bywa konieczne, ale nie usuwa przyczyn.
Dodatkowym ryzykiem jest „skażenie” danych: rośnie udział treści generowanych masowo, a modele zaczynają uczyć się na materiałach, które same powstały z użyciem AI. To grozi spadkiem jakości, większą liczbą halucynacji i trudniejszym do wykrycia dryfem modelu.
W zastosowaniach wrażliwych bezpieczniejsze jest wspieranie decyzji, a nie ich automatyzowanie: rozpoznanie sygnałów i uporządkowanie informacji, a potem potwierdzenie przez użytkownika lub specjalistę. AI skraca drogę do działania, ale nie powinno udawać autorytetu.
„Uczymy modele na danych z internetu, więc widać w nich rasizm i seksizm; potem firmy muszą dokładać polityki, które zabraniają takich treści” – Zofia Smoleń, założycielka Mindmatch.pl, tworzy chatbota wspierającego dobór psychologa lub psychoterapeuty.
Deepfake zmienia reguły zaufania do obrazu i głosu. Bywa narzędziem propagandy i podważania wiarygodności, a w biznesie – nową generacją oszustw. Głos lub wideo mogą „autoryzować” decyzję, choć nie pochodzą od właściwej osoby, co podnosi ryzyko strat finansowych i kryzysów reputacyjnych.
Obrona nie może opierać się wyłącznie na narzędziach wykrywających fałszerstwa, bo to wyścig zbrojeń. Potrzebne są procedury, które traktują audio i wideo jak dane niepewne, dopóki nie zostaną potwierdzone innym kanałem – zwłaszcza tam, gdzie presja czasu premiuje skróty.
Minimalny zestaw kontroli w procesach krytycznych może obejmować:
„Ta sama technologia pomaga mi sprzedawać na świecie w wielu językach, ale może też zadzwonić głosem mojej córki i wyłudzić pieniądze” – Tomasz Karwatka, inwestor, współzałożyciel Catch the Tornado, platformy dla startupów w e-commerce.
W AI trudno udawać pewność prognoz – tempo zmian jest skokowe, a przewagę potrafi zbudować zespół, nie sama technologia. W praktyce oznacza to powrót do „niezmienników”: rzetelności, uczciwości i odpowiedzialności ludzi, którzy projektują produkt oraz biorą za niego konsekwencje. Część wartościowych wdrożeń to także przenoszenie narzędzi do obszarów realnej pomocy.
Kluczowym pojęciem staje się super alignment, czyli budowanie systemów zgodnych z wartościami człowieka oraz gotowych na korekty. Modele uczą się przez system nagród i kar, a strategie mogą rozmijać się z intencją twórców. Stąd nacisk na „korygowalność” – możliwość zatrzymania, poprawienia i ograniczenia działania autonomicznych rozwiązań.
Pomocne jest proste sito decyzyjne przed wdrożeniem:
„AI nie jest zagrożeniem sama w sobie, staje się nim, gdy nie jest zgodna z wartościami człowieka; chodzi o to, żeby po prostu być dobrym” – Natalia Hatalska, analityczka, trendwatcherka, założycielka instytutu badań nad przyszłością infuture.institute.
AI nie musi odbierać pracy ani godności, ale bez zarządzania ryzykiem będzie odbierać zaufanie – do treści, instytucji i decyzji. Przewaga konkurencyjna wynika więc nie tylko z dostępu do narzędzi, lecz z jakości zasad, według których firma z nich korzysta – oraz z gotowości, by ograniczyć technologię, gdy zaczyna szkodzić.
Źródło: Audycja „Firmament” – wspólny projekt programu InCredibles i Radia 357: https://www.youtube.com/watch?v=mz_0PxFtQvs
Treść została wygenerowana za pomocą AI.
Najlepiej sprawdza się w zadaniach skalowalnych: tłumaczeniach, researchu, wariantowaniu treści i porządkowaniu informacji. W decyzjach krytycznych potrzebna jest weryfikacja człowieka.
Więcej w: „Produktywność bez regresu kompetencji”.
Gdy nie da się wyjaśnić, czemu model podjął decyzję, rośnie ryzyko operacyjne i prawne, a odpowiedzialność się rozmywa. Dlatego potrzebne są standardy i egzekwowanie zasad.
Więcej w: „Odpowiedzialność i regulacje w świecie „black box”.
Modele uczą się na danych z internetu, więc mogą odtwarzać toksyczne wzorce i stereotypy. Dodatkowo rośnie udział treści generowanych przez AI, co pogarsza jakość danych.
więcej w: „Dane, bias i wyjaśnialność: ryzyko wbudowane w internet”.
Nie traktuj głosu ani wideo jako dowodu. Wprowadź potwierdzenie innym kanałem (np. call-back na znany numer) oraz procedury na wypadek incydentu.
Więcej w: „Deepfake i erozja zaufania: procedury zamiast wiary w „dowód”.
To podejście do budowy AI zgodnej z ludzkimi wartościami i „korygowalnej” – takiej, którą można zatrzymać i poprawić, gdy skutki odbiegają od intencji
Więcej w: „Liderzy, inwestorzy i „super alignment”: wartości jako system operacyjny”.
Jarosław Sroka, dobry wieczór. Słowo się rzekło i jesteśmy. Firmament On Tour, tym razem na kongresie InfoShare w Gdańsku. Słyszycie pewnie Państwo, że mimo późnej pory to miejsce wciąż tętni życiem. Cieszymy się, że możemy tu być, zwłaszcza w tak znakomitej obsadzie, o której za moment. Cieszymy się podwójnie, bo nadal możemy spotykać się jak człowiek z człowiekiem. Może weźmiemy się, drodzy goście za ręce za chwilę, ale to już nie jest przecież w dzisiejszych czasach tak oczywiste. Sztuczna inteligencja wkracza przecież w coraz szersze obszary biznesu i odbierając telefon de facto nigdy nie wiemy, kto jest po drugiej stronie i czy nie gada przypadkiem do nas jakiś wytrenowany bot. Zresztą usłyszą to dzisiaj Państwo w naszej audycji na własne uszy. Firmament. Audycję realizuje i wydaje Paweł Sołtys, a w naszym kongresowym studiu goście: Tomek Karwatka, inwestor, współzałożyciel Catch the Tornado – platformy dla startupów w e-commerce. Dzień dobry, cześć. Tomasz Plata, wiceprezes Autenti. Dzień dobry, witajcie, dobry wieczór już. I Zosia Smoleń, założycielka Mindmatch.pl opartego o sztuczną inteligencję chatbota pomagającego w znalezieniu odpowiedni-odpowiedniego psychologa lub psychoterapeuty. Cześć, miło mi z wami porozmawiać. Oj, wsparcie psychologa i psychoterapeuty w tej dyskusji na pewno nam się przyda, czy sypiacie spokojnie myśląc o rozwoju sztucznej inteligencji? Zosia. Ja raczej sypiam spokojnie. Nie spędza mi to specjalnie snu z powiek. Umm, to jest tak każdy, każdy nowy, umm, wynalazek, umm, oznacza nowe obawy. Tak już było za pierwszym razem, gdy wynaleziono krosno. Umm, wielu, wielu bardzo szwaczy wtedy się oburzyło, wyszło na ulice, bojąc się, że im to zabierze pracę. I wtedy rzeczywiście zabrało. Aczkolwiek w tym momencie, um, żyjemy w świecie, który rozwija się dużo szybciej i osoby, które do tej pory na przykład pisały teksty, eeem, internetowe, pisały teksty na strony też mogą się czuć nieco zagrożone tym, że na przykład wchodzi im sztuczna inteligencja w rewir i być może zacznie generować teksty za nich. No Zosiu, ale to naprawdę chodzi o te rewiry, bo nigdy krosno nie zagrażało potencjalnie naszemu istnieniu. Nigdy krosno nie mogłoby zdecydować, że słuchajcie szwacze, ja was tak delete i koniec z wami. Tak, no są pewnie takie regiony konkretne jak na przykład szwacze teraz albo wtedy, albo, yy, być może, ee, copywriterzy na przykład teraz, które zdecydowanie mogą się o to martwić, aczkolwiek ostatecznie więcej osób wtedy, eee, nosiło ubrania i tańsze dzięki tym krosnom. Tomek Karwatka widzę, nie wytrzymuje (śmiech) Słuchaj, co ty gadasz za głupoty? Nie oglądałeś Ziemi Obiecanej? Krosno to jest po prostu zagrożenie egzystencjalne. Ilu tam ludzi ginęło w tym filmie, pamiętasz? O w ten sposób. Słuchajcie, do brzegu, wracamy na tory naszej audycji, Tomek Plata. Jak to jest z moim snem? No śpię spokojnie, bo mój sen analizuje, sprawdza, bada i wyciąga wnioski AI. Tak więc wiem, kiedy się położyć, wiem jak spać, kiedy wstawać i tak dalej. Ale już tak na poważnie, no trzeba mieć chyba pod kontrolą, ee, te technologie. Przychodzi kolejna fala, z entuzjazmem ją, się jej przyglądamy, ale bierzemy, czy staramy się zabrać z tego, co dobre, ale też pamiętać o tym, co może być szkodliwe dla zdrowia, życia. Aaem, bo takie sytuacje już się na co dzień zdarzają. Samochody w siebie wjeżdżają, prowadzą nas w złą stronę wskazówki, które słyszymy i tym podobne, tak? Nie mówiąc już o młodszych pokoleniach, które w dużym stopniu zaczynają być uzależnione czy średnio statystycznie bywają częściej uzależnione od tych nowych technologii. Także dużo absolutnie przewag i możliwości i szans, jakie generuje chociażby AI dzisiaj, które odmieniane jest przez wszystkie przypadki, ale też mnóstwo, yy-eem, wyzwań, które z tym są związane i jeśli AI będzie pod kontrolą człowieka, jeśli, ee, stworzone zostaną pewne normy i standardy, które, do których się będą stosować wszyscy, będę spokojniejszy. No właśnie Tomasz, na to się w ogóle nie zanosi. Nikt nie chce na razie– Znaczy, regulujemy to, prawda? W Europie, regulujemy to w-w-w krajach Zachodu, ale, no, nie ma takiej kontroli nad tym, co dzieje się z tymi technologiami, chociażby w Azji czy, czy w Afryce. To jest niepokojące, ee, no bo będzie miało globalny wpływ na impact, na-to, co dzieje się w gospodarce, co dzieje się w świecie. Sławetna historia TikToka teraz i tego, czy powinien być dozwolony, czy zagrożony. Na pewno, na pewno jest tak, że, że, że duzi gracze, szczególnie dla zysku, będą te limity z tych standardów obniżać. I to, to nie ma dwóch zdań. Tak świat jest skonstruowany i zbudowany. Będą zawsze się jacyś eksperci czaić na moją, na mój czas, na moją atencję, na moje pieniądze. Yyy, dlaczego? Dlatego uważam, że, że powstań– jakby przepowiadam małe powstanie w tym zakresie i mam nadzieję, że wyjdzie nam to na dobre. Ale jest ktoś, kto powinien czuwać nad rozwojem tej technologii Waszym zdaniem? Ktoś, kto powinien wyznaczać te standardy? Ktoś, kto powinien je egzekwować? Pytam zupełnie poważnie, bo niezależnie od tutaj poczucia humoru i przykładów, które czasem dość skrajnie podajemy, jednak tych obaw związanych z tym, że sztuczna inteligencja, za którą nikt nie chce formalnej, prawnej odpowiedzialności na przykład brać, nawet jej twórcy, może tworzyć zagrożenia dla naszej egzystencji, bardzo różnie rozumianej. Zosia.Hmm, wspomnę dosyć stary przykład, kiedy inteligencja sztuczna nie za dobrze działała. Aaa, tak mniej więcej w dwa tysiące dziewiętnastym, dwa tysiące, yy, dwudziestym okazało się, że rząd duński od czternastu lat, a raczej urząd skarbowy duński, używał algorytmu, który niesłusznie, ee, oskarżył dwadzieścia sześć tysięcy rodzin o, yyy, oszustwa podatkowe. Yyy, były z tego powodu samobójstwa, wiele rodzin zostało rozbitych i też rozpadł się ostatecznie, yy, rząd duński. A, mm, tak, no więc- Ale, ale Zosiu to jest bardzo niska stosunkowo cena, bo ja teraz powiem coś ze śmiertelną powagą, yy. Oprogramowanie oparte o sztuczną inteligencję wykorzystywaną przez armię izraelską na wojnie, którą armia izraelska obecnie prowadzi, yy, odpowiadało za ostrzały, które okazały się nietrafione z punktu widzenia kryteriów, które założyli żołnierze. Czyli ludność cywilna była głównie ostrzeliwana. Jaka lekcja płynie z tego, z tej, tego konkretnego przykładu dla twórców sztucznej inteligencji? Oddano w ręce autonomicznych maszyn decyzje o życiu i śmierci ludzi. Dzisiaj już wiemy, że to był wielki błąd. Ta technologia tak szybko rośnie, tak szybko się rozwija. Mam wrażenie, że wymknęła nam się kompletnie już spod kontroli, a będzie coraz gorzej. Zgadzacie się z taką tezą? Wiesz, co, no, ja jestem fanem tutaj jednak jakiegoś regulowania tego i wydaje mi się, że tak jak w wielu obszarach, yy, życia nie możemy liczyć na to, że firmy się będą same regulować, no bo dążą po prostu do zwiększania zysków. I to jest zupełnie dla nas zrozumiałe, że mamy kogoś, kto czuwa nad farmaceutykami, które jemy w aptece, tak? No to jakby to jest pewnie zupełnie naturalne, natomiast nie spodziewałbym się, że te inicjatywy wyjdą z poziomu firm i biznesu i że biznes będzie się prosił o te regulacje. Ale myślę, że tak, że to jest rola polityków, yy, żeby tworzyć, no, taką infrastrukturę do życia, która jest bezpieczna dla nas obywateli, nie? I jakby myślę, że to nie jest uchylanie się tak z mojego punktu widzenia jako przedsiębiorcy od odpowiedzialności, tylko każdy z nas ma jakąś swoją rolę do odegrania. My przedsiębiorcy odgrywamy tą rolę, że bierzemy technologię, której też przecież najczęściej sami nie wymyślamy i ją, no, przysłowiową niesiemy pod strzechy, tak? I to jest nasza część tej pracy, a powinniśmy być otwarci na sugestie mądrzejszych od siebie, też często bardziej humanistycznych umysłów, które zastanawiają się nad tym, co to robi nam, ludzkości. I wydaje mi się, że teraz w social mediach to się właśnie zaczyna dziać, nie? Że widzimy, że to nam nie służy generalnie jako ludzkości. Coś z tym trzeba zrobić i ja się cieszę, że mieszkam w Unii Europejskiej, wydaje mi się, że tutaj najwcześniej to sobie poukładamy jakoś mądrze, nie No, ale nie obawiacie się też tego, że te firmy tak szybko rosną. Tomek o tym mówił przed południem, że ta chęć zysku dzisiaj napędza głównie rozwój tej branży. Będą tak duże, tak silne kapitałowo, że tak jak Twitter, dzisiaj platforma X nawet co z tego, że są przepisy, których nie można od tak potężnej firmy wyegzekwować i dalej robi co chce. Tomek? Tylko te regulacje spowodują rzeczywiście, jeśli będą działać skutecznie, spowodują czy nałożą takie kary, czy takie konsekwencje będą wynikać z niewłaściwego stosowania tych technologii, że ich twórcom odniechce się tych niewłaściwych praktyk. No przynajmniej próbuję w to uwierzyć, że tak będzie, tak? Czyli rzeczywiście coś wydarzy się kosztem czegoś, a nie daj Boże kogoś innego. Ale po pierwszym takim doświadczeniu, a cały czas się uczymy, w jaki sposób to robić. A to, co zauważyłeś sami twórcy, yym, niestety tracą kontrolę trochę chyba nad tymi pracami i kierunkiem, w jakim podążają. Ale dlaczego? Oni sami przyznają, że nie wiedzą, jak pewne decyzje są podejmowane w tym tak zwanym black boxie. I to jest w ogóle fenomen całej tej branży. Dlatego mamy prawo się martwić. No tak, no, py– rozmawiałem ostatnio, słuchajcie, z chirurgiem, który powiedział, że już w ciągu najbliższych kilku lat dziewięćdziesiąt dziewięć procent operacji będzie wykonywanych przez roboty, tak? I to takich zaawansowanych jak na sercu czy, czy, czy na innych narządach istotnych dla człowieka. Dlaczego? Dlatego, że sami lekarze, widząc, jakie jest prawdopodobieństwo, jakie są statystyki, będą, yy, powierzać tego typu operacje robotom, miast człowiekowi, któremu zawsze ta ręka może na koniec dnia, yy, z-zadrżeć. Za-zadrżeć- Zadrżeć, tak. O, tak, jakoś tak chciałem powiedzieć. Więc to jest trudne, tak? Bo zdaje się, że jakby nie ma odwrotu, tylko pytanie kto? I właśnie i to na, i to, jak Tomek zauważył, to nie mogą być te same instytucje, tylko to muszą być niezależne organizacje, zupełnie od biznesu, czy politycy tutaj też mają dużą rolę do odegrania, by to ułożyć wszystko w ramę. Zosiu? Może nawiązując właśnie do tej medycyny, o której wspomniałeś Tomku. Aaa, poniekąd mamy precedens, poniekąd, eee, pod tym kątem, że do zastosowania, do modeli AI pod tym kątem, że na przykład teraz jak tomograf robi złe zdjęcia, to jest ustalana odpowiedzialność za to, kto robi te złe zdjęcia. I dokładnie tego samego potrzebujemy za niedziałające modele. Pytanie, kto to powinien być? W przypadku tomografu jest to szpital i placówka, nie producent tomografu. W przypadku modelu jeszcze tak naprawdę szczerze mówiąc ciężko stwierdzić. No i zabieramy się za to powoli. To znaczy Unia Europejska publikuje i jest w trakcie, powiedzmy, wdrażania AI Act, nad którym pracowali w dwa tysiące dwudziestym szóstym około powinien wejść. On reguluje mniej więcej takie sprawy jak zakaz używania sztucznej inteligencji w konkretnych celach, takich jak na przykład polityka publiczna. Ee, to było pewnie bezpośrednio odwołanie do tego, co się stało w Danii. Aaa, no i też zwraca uwagę na pewne obszary, które są, yy, takie narażone, jak na przykład zdrowie, jak, aa, też zdrowie psychiczne. I tam też są regulacje i, a raczej wskazania, nie jeszcze regulacje na temat tego, aa, jak powinny być wyjaśniane te modele, jak do tego podchodzić. Jest pewien problem z wyjaśnialnością modeli. To jest zupełnie inny temat i bardzo duży. A do tego jeszcze tak naprawdę naukowcy nie do końca wiedzą, jak podchodzić tak, żeby ludzie mogli z tego korzystać, ale z biegiem czasu, a, no jest to dosyć popularna dziedzina rozwoju AI w tym momencie Doskonale AI czy IQ? Oddajmy zatem głos profesorowi Rafałowi Mrówce ze Szkoły Głównej Handlowej, we współpracy z którą przygotowujemy nasz Firmament. (muzyka)Firmament. Tak, zgadzam się. Zastąpienie naszych mózgów maszynami nas osłabi. Stracimy pewne kompetencje, umiejętności. To już się dzieje. Ja po pięćdziesięciu latach używania kalkulatora, no może trochę mniej, bo w kołysce jeszcze nie używałem, mam problemy z liczeniem na kartce papieru. Mnożenie w słupkach, dzielenie pisemne. Po trzydziestu pięciu latach pisania na komputerze dostaję długopis i kartkę, piszę tak, że nie jestem sam w stanie się przeczytać. To absolutnie straszne. Regres mojego mózgu. Mam nadzieję, że Państwo dostrzegacie absurd tego sposobu rozumowania. Niby to wszystko prawda, ale czy na pewno te umiejętności, kompetencje są kluczowe z perspektywy człowieka żyjącego w trzeciej dekadzie dwudziestego pierwszego wieku? Podobnie zresztą nie umiem zaprzęgnąć konia do bryczki, naostrzyć miecza czy kosy. Nie posiadam tysięcy umiejętności, bez których ludzie nie wyobrażali sobie życia przez tysiące lat. Tak, technologie zmieniają nasze mózgi. Tak, technologie zmieniają zakres wiedzy i umiejętności, których potrzebujemy. Ale technologie także uwalniają nasze mózgi na możliwość zajmowania się zupełnie innymi wyzwaniami. Technologie wspomagają nas w sprawach, w których my jesteśmy słabsi, a one są mocniejsze. Tak ma szansę być z kolejnymi rewolucyjnymi technologiami. Tak, ma być też szansę z taką technologią jak sztuczna inteligencja. Oczywiście są też zagrożenia. Rozmawialiśmy o nich już wielokrotnie. Czy połączenie dwóch rozwijających się technologii: sztucznej inteligencji, która zacznie myśleć sprawniej niż my i robotów, które manualnie staną się także sprawniejsze i bardziej uniwersalne niż my, nie wyeliminuje w ogóle potrzeby naszego istnienia? Tego nie wiem i też się nieco obawiam. Ale to inne zagadnienie. Więc nie czy IQ, czy AI, tylko jakie IQ przy takim AI Dziękujemy profesorowi Mrówce, niezawodnemu profesorowi, który zawsze tutaj garść inspiracji podrzuci na nasz stół. Jakiś taki szybki komentarz? Komentarzy brak pewnie- O, Tomek. Elokwentne to, cudowne określenie. Drodzy Państwo, poza tak zwanymi gośćmi stacjonarnymi mamy tutaj też gości, którzy rotacyjnie będą się pojawiać w naszym lotnym studiu. I takim gościem jest Ania Nowak z agencji Dentsu Creative, z którą porozmawiamy o tym, czy sztuczna inteligencja zastąpi twórców i kreacje w ogóle. Na jakim etapie rozbrajania tego systemu, do którego się przyzwyczailiśmy, który wynosiliśmy na piedestały i podziwialiśmy przez wieki, jesteśmy obecnie Dzień dobry, bardzo mi miło. Dziękuję za zaproszenie. Ja ze swojej strony mogę powiedzieć tylko o tym, co obserwuję w agencji, w której pracuję razem ze swoimi zespołami. Yyy i szczerze mówiąc- Tak, myślę, że bardzo dobry i taki powiedzmy, konkretny. I patrząc na to, jak wygląda nasza codzienna praca teraz, bardzo szczerze wątpię, że sztuczna inteligencja zastąpi standardowych kreatywnych. Nie zmienia to jednak faktu, że z jednej strony wiele rzeczy ułatwi, a z drugiej strony, jak się okazuje, te narzędzia też wcale nie są tak proste w użyciu, jak, jak się może wydawać, nadal bardzo ważny jest art direction, jeśli chodzi o kwestie wizualne. Nadal bardzo- Ale Aniu, powolutku, powolutku. Czyli te plotki o Waszej przedwczesnej śmierci, że pierwsi- Pójdziecie pod nóż albo pod młotek, są przedwczesne Tak, były bardzo mocno przesadzone, można powiedzieć. Ale mówimy o tym etapie rozwoju sztucznej inteligencji, a te modele właściwie rozwijają się w tempie kosmicznym. Jak będzie za pół roku? Jak będzie za rok? Wiecie? Nie wiecie. To prawda. Znaczy, nikt nie może tego przewidzieć. Możemy podejrzewać. I faktem jest, że jeśli chodzi o to, jak duży jest skok jakościowy w materiałach, które powstają właśnie przy wykorzystaniu tych narzędzi, no jest on gigantyczny. I teraz widać- No właśnie, czyli dogonią Was te algorytmy i kiedy Was przegonią, co będzie? Trudno powiedzieć, ale myślę, że nas nie przegonią, bo praca nasza jest też troszeczkę inna niż powiedzmy tylko produkowanie asertyw wizualnych- No to Ania, to czego sztuczna inteligencja na pewno nie zrobi? Na pewno nie napisze dobrego skryptu i go nie wyreżyseruje w taki sposób, żeby to było wizualnie spójne. Nie robi tego teraz i myślę, że nie będzie tego robić za jakiś czas. Dlaczego? Dlatego, że gdzieś tam, patrząc na to, jak my teraz na przykład też pracujemy, bardzo istotny jest ten ludzki element, który potrafi na przykład wyreżyserować kolejność ułożenia scen tak, żeby to było wizualnie ze sobą spójne. Nie wydaje mi się, żeby ten ludzki input mógł być zastąpiony. Oczywiście mogę się mylić. Zobaczymy, jak będzie za kilka lat, ale na obecną chwilę trudno mi jest sobie to wyobrazić. Ale taka sytuacja Was motywuje czy raczej zniechęca? Tak siadacie w kącie i kreatywnie zastanawiacie się, jaki będzie koniec Waszej branży? Nie, nie zastanawiamy się nad tym. Bardziej zastanawiamy się nad tym, jak takie narzędzia wykorzystać, żeby wesprzeć swoją pracę, bo te narzędzia są bardzo przydatne. Oczywiście tutaj jest cała kwestia wykorzystania ich w ramach praw autorskich etc. Ale jeśli chodzi o to, co nam mogą dać w usprawnieniu naszej pracy, to, to widzimy tutaj tylko same plusy. A czy są jeszcze tak patrząc nieco szerzej poza Waszą agencję, takie obszary kreatywności, w których sztuczna inteligencja nie ma z nami szans? Nie ma z nami szans. Znaczy, to zależy, jak sobie zdefiniujemy te szanse. Czy nas- Będziemy kreatywni, będziemy szybsi, będziemy bardziej elastyczni, twórczy. Myślę, że wesprze naszą kreatywność, ale trudno mi sobie wyobrazić sytuację, w której zastępuje nas w pełni, bo nadal jest potrzebny ktoś, kto operuje tą sztuczną inteligencją. Kto daje ten swój input choćby w formie promptów. Owszem, sztuczna inteligencja potrafi napisać sama prompty To jest instrukcja pracy, na przykład dla sztucznej inteligencji generatywnej czy algorytmów generatywnych, choćby Midjourney czy chatu GPT, które dają instrukcje, jak te algorytmy mają pracować No ale wyobrażasz sobie, Aniu, taką sytuację, że, że za pięć, sześć, siedem, osiem lat taka to sztuczna inteligencja o imieniu Tomek na przykład, żeby było łatwiej, bo Tomków dzisiaj mamy w studiu. Tobie będzie wydawać polecenia, co ty, gdzie i kiedy masz napisać, bo ona zdecyduje o tym, w którym kierunku będzie się rozwijała agencja, żeby zarabiać pieniądze Piękne imię.Trudno mi sobie wyobrazić taką sytuację, ale zobaczymy. Aha, zobaczymy, ale nie lękasz się tego? Nie, absolutnie nie. A wyobrażasz sobie taką sytuację, że właśnie komputer Ci będzie wydawał polecenia i jak w Odysei kosmicznej postawi się pewnego dnia i nie wypuści do domu, dopóki roboty nie skończysz? Jeżeli zrobi to tak jak w Odysei Kosmicznej, to myślę, że przyjdzie czas na bunt ludzi, a nie bunt maszyn. Yyy, myślę, że wtedy może przyjść taki moment, ale wydaje mi się, że instrukcje wydawane na bazie analizy danych, bo tak naprawdę to jest też coś, co, co te algorytmy są w stanie robić bardzo dobrze, nie będą dla mnie problematyczne, o ile będę rozumiała, skąd przychodzą i na jakiej podstawie powstały. No ale opisz nam też tak na koniec zupełnie ten ferment, który funkcjonuje dzisiaj w środowisku twórców artystów. Jest sporo niepokoju, powstaje muzyka dzisiaj tworzona bez udziału ludzi, powstają obrazy bez udziału ludzi. Mówi się, że są nie do odróżnienia, ale czy są lepsze? Czy jest w tym, w tym ten genius loci — to, co odróżnia właśnie, yy, człowieka od maszyny? Ja sobie pozwolę tutaj oczywiście mówić ze swojej perspektywy, ale dla mnie treści generowane przez sztuczną inteligencję, to nie jest teraz tak, że nagle dostaliśmy mnóstwo wybitnych treści, tylko dostaliśmy mnóstwo treści dobrych, poprawnych, ale nadal bardzo mocno średnich. Mi na przykład ta stylistyka nieszczególnie się podoba i jest odróżnialna. Oczywiście to jest kwestia ewolucji i tego, jak ten styl się zmienia i tego, jak napiszemy prompt i co nam tam wizualnie się pojawi, ale nadal, yy, powiem szczerze, że ja na przykład mam zawsze bardzo dużą frajdę z wyszukiwania tych drobnych błędów, które pokazują, że jednak na przykład na obrazach generowanych przez sztuczną inteligencję wiele rzeczy jest bez sensu, bo najczęściej artysta umieszcza tam rzeczy po coś i wszystko ma jakiś sens. I to jest kwestia, nie wiem, ułożenia włosów, kwestia padania cienia. Nadal bardzo dużo artefaktów się pojawia i jest to zabawne. Ania, bo póki co ty ustalasz kryteria i ty ustalasz zasady oceny, co jest poprawne, co nie jest. Pewnego dnia- Zdecyduje o tym algorytm. A państwo co na to? Zgadzacie się? Tak siedzicie spokojnie, my tu dziewczyny maglujemy Niespokojnie, ale Ania jest optymistką. Jejku, ja nie podzielam tego optymizmu. Widziałem już prace, które przygotowane zostały przez AI, takie na płótnie zaprezentowane. Oglądałem już seriale, które powstały w ten sposób, przesłuchałem muzyki, która została wygenerowana przez sztuczną inteligencję i już jest kłopot z rozpoznaniem tego, co ludzkie, a co sztuczne. Także trzymamy kciuki za Twój biznes, Aniu, ale osobiście uważam, że tak jak powiedział Jarek przed chwilą, że, że to gdzie dzisiaj jesteśmy i jak o tym rozmawiamy, a gdzie będziemy za rok czy za pięć, no to, to jest skokowy wzrost i ta przyszłość jawi mi się w kontekście Twojego biznesu trochę w pesymistycznych kolorach. Ania Nowak przemaglowana wspólnymi siłami tradycyjnej inteligencji zbiorowej, inteligencji siedzącej przy tym stole. Aniu, jeszcze jedno zdanie na koniec, jakieś takie, jakiś taki apel, jakieś coś, co troszeczkę wiary w nas, yy… Znaczy, ja oczywiście się zgadzam, że tak jak kolega przed chwilą powiedział, oczywiście wszystko idzie bardzo szybko do przodu i dlatego też trudno nam jest przewidywać, gdzie będziemy za rok, jak to wszystko będzie wyglądało. Ja teraz nie mogę z całą pewnością powiedzieć, że za rok sytuacja będzie taka, a nie inna, bo pamiętamy, jakie były przewidywania rok temu. Jeszcze jakiś czas temu mówiło się o tym, że będziemy bardzo dużo czasu potrzebowali na to, żeby mieć sztuczną inteligencję, z którą będziemy w stanie normalnie porozmawiać. To się bardzo szybko zmienia, ale ja osobiście obserwuję te wszystkie zmiany z takim– raczej z optymizmem, dlatego że w branży kreatywnej myślimy o tych narzędziach bardziej jako o wsparciu, a nie o wyparciu. I myślę, że to, co jest ważne, to to, żeby przede wszystkim być z tym na bieżąco, bo to nie są narzędzia, które znikną, one z nami zostaną i będą się rozwijać. Ważne jest to, żeby umieć z nich sprytnie korzystać i faktycznie wspierać swój proces twórczy tym, co możemy. Nie bać się tego, też nie stać w opozycji na zasadzie ludzkie jest lepsze, ludzkie jest super, ale może być jeszcze lepsze przy wsparciu różnych narzędzi bazujących na sztucznej inteligencji. Więc ja myślę, że to jest obszar warty eksploracji. Po prostu trzeba te narzędzia poznawać i nauczyć się z nimi współpracować. Bardzo pogodne, prawda? Pogodne, optymistyczne przesłanie. Aniu, bardzo Ci dziękujemy. Słuchajcie, temat, który chciałbym jeszcze tutaj wrzucić do naszego ogródka. Temat związany z tym, skąd się biorą dane, które są wykorzystywane, dane treningowe do rozbudowywania, doskonalenia modeli sztucznej inteligencji. Mówi się o procesie skażenia tych danych, że te dane są przypadkowe, że tych danych jest coraz mniej, że są pozyskiwane w nieuczciwy sposób i w sumie wykrzywiają, wypaczają te modele, które są tworzone. Patrzysz na mnie ze zgrozą, widzę coś. Tak, dane, które były brane do tworzenia modeli przede wszystkim na przykład językowych albo, yy, w wizji komputerowej. To były dane zebrane z Internetu, to znaczy na przykład w dużej mierze z Wikipedii. Są też takie wielkie korpusy językowe skrapowane z różnych stron. No więc nietrudno się dziwić, że ostatecznie to, czego uczymy modele na tych danych, jest odzwierciedleniem tego, co ludzie robili, pisali czy publikowali w zdjęciach. W związku z tym na przykład można zobaczyć dużo rasizmu, dużo seksizmu, dużo rzeczy, które nie są uznawane za politycznie poprawne i dlatego też dużą, jakby– te firmy, które tworzą te modele, muszą zawsze zakładać duży nacisk na to, żeby wprowadzić te polityki do tego modelu, które będą mu zabraniały mówić, że tych albo tamtych. Czasem się to też kończyło całkiem śmiesznymi albo i nieśmiesznymi sytuacjami, w których jakaś firma wykorzystała model językowy, żeby zarządzał jego Twitterem i te tweety kończyły się w sposób niecenzuralny. A więc tak, to jest problem skażenia danych. No dobrze, to zakończymy w takim razie z takim przesłaniem, żebyśmy cenzuralne rzeczy wyłącznie robili i tak je wstrzykiwali w modele sztucznej inteligencji. Myślę, że zasłużyliśmy wspólnie na piosenkę napisaną i wykonaną przez prawdziwych artystów, a Tomek się zastanowi— Tomek Karwatka — w kogo inwestuje i w kogo warto będzie inwestować, jeżeli chodzi o sztuczną inteligencję w najbliższych latach.Firmament. I wracamy po piosence. Tomek, rozumiem, miałeś mnóstwo, co najmniej trzy minuty czasu na to, żeby się zastanowić nad tym, w kogo i dlaczego warto inwestować. Aż, aż czuję, że miałem za dużo tego czasu, bo tak jakby, jakby sekunda wręcz minęła. Tak jest w radiu. Czas płynie szybciutko. Wiesz co, yy, bardzo ciekawa dyskusja dzisiaj. Cieszę się, że inni odpowiadają, bo na większość pytań moja odpowiedź jest „nie wiem”. Myślę, że trochę się oszukujemy wszyscy, że jesteśmy w stanie przewidzieć. To jest bardzo takie słodkie, ale myślę, że nic nie wiemy. I podobnie chyba podchodzę do inwestowania. To znaczy faktycznie dużo inwestujemy w każde Tornado w startupy AI i tak naprawdę bardzo trudno jest zweryfikować te hipotezy, czyli czy ten produkt ma sens, czy ktoś nas nie wyprzedzi, czy szybko zbudujemy odpowiednią skalę biznesu. Więc wszystko sprowadza się– i to jest chyba piękna odpowiedź do tego, co jest niezmienne, a niezmienni są ludzie. I ich ludzka intuicja. I ich ludzka, wiesz, intuicja, ale też pracowitość, rzetelność, uczciwość, ambicja. Nie? I jakby tego szukamy, bo na końcu te firmy tworzą ludzie i chcemy pracować po prostu z super ludźmi. I to chyba tak trochę generalnie też, wiesz, jest odpowiedź na te pytania o AI, nie? Czy my chcemy AI, która jest ludzka i ma zaimplementowane te cechy, które my sobie cenimy jako wartościowe? Czy my chcemy taki odhumanizowany AI? Może to jest jakiś plus tego, może minus? Może taki technokratycznej, nie? To jest, to jest ciekawa kwestia, bo jeśli chcemy ludzkiej, to wiesz, może dużo problemów jakby znika, nie? Czyli tworzymy trochę tę sztuczną inteligencję na własne podobieństwo, a to nie o to chodzi. I też tak oceniamy. Czy tak ją tworzymy? To jest ciekawe, nie? No, Zosia się zastanowiła pewnie i zna odpowiedź na to pytanie. Czy tworzymy sztuczną inteligencję na własne podobieństwo? Poniekąd tak, własne, tylko szybsze i będące w stanie przetwarzać to samo, ale w krótszym czasie w większym zmasowaniu, więc zasadniczo w dużej mierze tak. No dobrze, to takie pytanie Wam wrzucę, które jest takim dyżurnym pytaniem, ale bardzo ważnym. I patrzę tutaj na Tomka. Tomek już zebrał myśli, a pytanie jest następujące: czy firmy AI są spółkami impactowymi, odpowiedzialnymi społecznie? Czy one zmienią świat na lepsze? Po tym, co powiedział Tomek wcześniej, to najlepiej byłoby odpowiedzieć: no nie wiem, albo, albo nie chcę udawać, że wiem, co się, co się w tym temacie dzieje, ale chyba tak nie jest. Mówię cały czas chyba, ale, ale tak jak obserwuję te kierunki tutaj, podmioty, trendy, które powstają na rynku, to, to najpewniej tak nie jest, w mojej ocenie. I tylko szybko uzupełnię tą myśl, że kierunki są przednie, świetne. To jakby super, że młodzi i starsi przedsiębiorcy sięgają powszechnie po te nowe technologie, ale zapominają bardzo często, że ona nie jest jedynym remedium i drogą do sukcesu, że trzeba te biznesy budować w oparciu o bardzo archaiczne modele biznesowe, o ludzi właśnie, o których wspominał Tomek, o sprzedaż, o marketing, o-o różne kwestie administracyjne, więc, emm, to jest chyba moja odpowiedź na-na Twoje pytanie, jeśli dobrze, dobrze trafiłem. Doskonały timing, Tomku. Ja bym jeszcze tylko jedną rzecz dodał, bo myślę, że mam trochę odpowiedź na Twoje pytanie. Bardzo proszę. Jest taka fundacja polska Tech to the Rescue, świetnie sobie radzi za granicą i globalnie. I Tech to the Rescue robi teraz taki AI for Good Hackathon, który polega na tym, że tą technologię AI-ową pokazujemy organizacjom for good działającym i-i uczymy organizacje non-profitowe korzystać z technologii stricte dla pomagania innym ludziom. I to jest właśnie, kurczę, świetne. Ale to też pokazuje, że ta adopcja technologii jest bardzo różna, nie? Mamy nas, siedzimy przy tym stoliku, wszyscy tam testujemy najnowsze wersje Czata GPT, ale są tutaj zaraz obok organizacje for good, gdzie ludzie walczą naprawdę z poważnymi problemami, które dotykają ten świat. I oni jeszcze może nie przetestowali tej najnowszej wersji. I to jest trochę nasza powinność, tych technokratów, żeby też zanieść to AI tam, gdzie ono ma impact, nie? Bo sama technologia może mieć impact bardzo duży. A naszej rozmowie od kilku chwil uważnie przysłuchuje się Natalia Hatalska, założycielka Instytutu Badań nad Przyszłością Infuture Institute. Natalia, witamy Cię serdecznie, bo jak Trójmiasto, to Natalia Hatalska, prawda? Dzień dobry, cześć, cześć. Dzięki za zaproszenie, ale prosto ze sceny. No widzimy, widzimy, więc chcemy, żeby- Teraz będziesz miała chwilkę, żeby się wyciszyć i z nami tutaj podywagować odrobinę. A zastanawiamy się, czy branża AI, sztucznej inteligencji, to branża odpowiedzialna społeczna, społecznie. Czy ona rzeczywiście odmieni świat na lepsze? I co Ty na to Ma ogromny potencjał, żeby odmienić świat, bo pracuje nad narzędziem, które ma, no, ogromne znaczenie i ogromny wpływ, zresztą już dzisiaj zmienia naszą rzeczywistość. Natomiast może włożę trochę kij w mrowisko i patrząc, chociażby na to, co się dzieje w ostatnim czasie w OpenAI, czyli to, że cały team Superalignment sam się zwolnił z jakiegoś powodu, no to nie do końca jestem przekonana, że to jest branża odpowiedzialna społecznie. Jeszcze nie do końca rozumiem– czytałam sobie różne informacje na temat przyczyn, dla którego ten ƒ, zresztą który został powołany w zeszłym roku, dlaczego odszedł, ale być może tam jest jakieś napięcie dotyczące tego, że sam Altman chce rozwijać technologię w kierunku zysków. I ja nie wiemYyy, a niekoniecznie w kontekście bezpieczeństwa. Natomiast dzisiaj o tym mówiłam właśnie na scenie, że sama AI, bo tak dużo mówimy o zagrożeniu, że to niebezpieczna technologia. Sama ta technologia nie jest zagrożeniem. Ona jest zagrożeniem tylko wtedy, kiedy nie jest zgodna z wartościami człowieka czy całej ludzkości. I żebyśmy mieli pewność, że ona będzie zgodna, no to powinniśmy dbać o tak zwany super alignment. W mojej ocenie, jak teraz sobie popatrzymy chociażby na wydatki, które dotyczą wydatków na, yy, rozwój AI, to, yy, obecne wydatki są na poziomie stu sześćdziesięciu bilionów dolarów, podczas gdy wydatki na super alignment to jest około stu milionów dolarów rocznie. A byłabyś uprzejma wyjaśnić tamto pojęcie naszym słuchaczom? Super alignment — co to oznacza? Super alignment to jest takie podejście, taka koncepcja, która mówi o, mm, takim budowaniu systemów AI, które są zgodne z ludzkimi wartościami. To jest. Może podam ten przykład, o którym dzisiaj opowiadałam. Generalnie jednym ze sposobów, w jaki AI się uczy, to jest tak zwany reinforcement learning, czyli polega to na tym, że system jest, dostaje nagrody za dobre zachowanie i jest ukarany za złe zachowanie. Czyli możemy sobie wyobrazić, że mamy robota. Na razie podam taki przykład, który nie jest zagrażający rzeczywistości. Czyli mamy robota, który ma sprzątać mieszkanie i ten robot, na razie człowiek, który projektuje tego robota, ustala, że ten robot za każde podniesienie śmiecia dostaje nagrodę. Natomiast jeżeli zderzy się ze ścianą, to dostaje tak zwane punkty ujemne, czyli zostaje ukarany. Lub podniesie głos. Też zostanie ukarany. Tego nie wiem. W każdym razie, więc– natomiast człowiek nie ma wpływu na strategie, które robot wypracowuje w trakcie uczenia się tego zadania. Te strategie, które robot wypracowuje, one powstają w wyniku jakiegoś jego autonomicznego procesu uczenia się. My nie wiemy, jak ten proces przebiega. Czyli możemy sobie wyobrazić sytuację, że robot w trakcie uczenia się zauważy, że może podnosić śmieci i następnie go wrzucać i wyrzucać na podłogę i też będzie za to dostawał punkty. Albo nosić za kanapę i tam sobie go schować. Tak, i za to dostaje. Czyli tak naprawdę jest zorientowany na zdobywanie punktów, a nie na to, jaki był jego cel, czyli sprzątanie mieszkania. I teraz możemy sobie wyobrazić, okej, dobra, no to my jako designerzy czy projektujący zauważamy to zachowanie i możemy je zmienić pod warunkiem, że ten system, który jest systemem autonomicznym, docelowo takim, że pozwoli nam zmienić to zachowanie. I teraz, jeżeli chodzi o śmieci, to wiadomo, że to nam nie zagraża. Ale wyobraźmy sobie na przykład, że dajemy AI zadanie wyleczenia raka i w trakcie tego autonomicznego procesu uczenia się AI dochodzi do wniosku, że najlepszym sposobem maksymalizacji, tej maksymalizacji zdobywania punktów jest to, żeby osiągnąć ten cel, po prostu wyeliminować wszystkich ludzi. I teraz, jeżeli mamy, to jest jeden ze sposobów zabezpieczenia. To jest. To są pewne hipotetyczne- To Tomek na granicy omdlenia, z tego, co widzę. Ale generalnie wiadomo, że nie powstanie. Zakładam, że nie powstanie taki system, który nagle stwierdzi, że zamiast leczyć raka, nagle wyeliminuje ludzi. Chodzi raczej mi o to. Chodzi o to, że my tak naprawdę nie wiemy, jak wygląda proces podejmowania decyzji przez AI. My nie mamy na to wpływu. To jest dlatego tak ważny jest super alignment, żeby budować takie systemy, które albo są zgodne z wartościami człowieka. To jest bardzo trudne, bo my wiemy, że nasze wartości się zmieniają. W starożytnej Grecji niewolnictwo było dozwolone i to było okej. Dzisiaj wiemy, że to jest, że to jest niezgodne z prawami człowieka. Albo powinniśmy budować takie systemy, które w sytuacjach, które są moralnie niepewne, powinny mieć taki mechanizm, który mówi dobra, to ja, to jest sytuacja moralnie niepewna, więc ja pytam o człowieka. Czy właśnie cały obszar tego corrigibility, czyli że takie budujemy systemy, które nawet jeżeli są autonomiczne, są elastyczne i zgadzają się na wprowadzanie do nich poprawek. No dobrze, to tu zawieśmy na sekundkę naszą dyskusję, bo teraz zapowiadana część dotycząca niecnych celów, jakie można osiągać dzięki sztucznej inteligencji. Nagranie przygotował Przemysław Zieliński z mamstartup.pl, ale nie zrobił tego sam. Dobrał do tego bardzo złowrogo brzmiącą sztuczną inteligencję. Proszę sobie więc wyobrazić postać, która uosabia wszelkie zło, bo zaraz ją Państwo usłyszą. Firmament. Znacie to powiedzenie, że zło ma wiele twarzy. Dzięki sztucznej inteligencji nabiera ono nowego, niepokojącego znaczenia. To właśnie ta technologia pozwala na dokonywanie niecnych występków, chowając się niejako za maską. Mowa o deepfejkach. Za pomocą tego mechanizmu dokonuje się wiele zła. Można podkopać czyjąś wiarygodność. Tak postąpili rosyjscy hakerzy, którzy stworzyli fałszywe wideo z ukraińskim prezydentem rozkazującym swoim żołnierzom kapitulację. Deepfejk służy do budzenia społecznego fermentu. Przywódca skrajnej prawicy w Szwecji, Jimmie Åkesson, wykorzystał sztuczną inteligencję do stworzenia wideo, w którym po arabsku zwracał się do imigrantów oraz uchodźców, że nie są mile widziani w Szwecji. Deepfejk to też manipulacja. Zwolennicy Donalda Trumpa chcieli zwieść opinię społeczną i pokazać republikańskiego kandydata na prezydenta jako osobę bliską Afroamerykanom. Stworzono fotorealistyczne zdjęcia z Trumpem i czarnoskórymi wyborcami. Tyle że niektórzy z nich mieli po jedenaście palców. To akurat było złe, w dosłownym tego słowa znaczeniu. Partacze! Jako że sztuczna inteligencja jest bardzo wydajna, to dzięki niej można zastąpić całą rzeszę pracowników. Tak postąpił Sumit Shah, CEO firmy Dukaan, który zwolnił dziewięćdziesiąt procent swoich pracowników i zastąpił ich AI.Na oszczędności połakomiła się również redakcja Sports Illustrated, która za pomocą AI stworzyła nieprawdziwych dziennikarzy piszących teksty. Po co? Aby zwiększyć odwiedzalność i dochody z reklam. Walka o władzę. Propaganda. Żądza zysków. Społeczeństwo. Polityka. Media. A nie przestrzegałem, że dzięki AI zło ma wiele obliczy? E! Dziękujemy. Wracamy do naszej dyskusji. No, tyle słyszałem tutaj budujących przekazów, że ta sztuczna inteligencja to jest tylko narzędzie. Dzięki temu ludzkość będzie się szybciej rozwijać, więcej spraw załatwiać. Tu się okazuje, że przestępcy dostają nowe narzędzie. Metoda stara, bo na wnuczka, ale technologia dzisiaj pozwala oszukiwać doskonale. To jest poważne zagrożenie, czy nie? Czy też powinniśmy przechodzić obok tego lekceważąco? No zdecydowanie, to, to– ale to tak jak z narzędziem, jak, jak, jak powiedzieliśmy sobie wcześniej, to od nas zależy trochę, jak go będziemy używać i według jakich regulacji. Ale jakich „nas”? Natalia, przygotuj odpowiedź na następujące pytanie. Czy ktoś tego bałaganu powinien pilnować? Tomku, proszę, dokończ myśl. W mojej firmie ta sama osoba mówi w dwudziestu czterech językach i to jest świetne, bo działa w ten sposób nasz marketing, czy sprzedajemy w-w-w bardzo płynny sposób produkty naprawdę w różne krańce świata. Ale ta sama technologia może zostać użyta do tego, żeby z numeru telefonu mojej córki bez jej kontroli zadzwonił ktoś do mnie czy coś do mnie zadzwoniło i jej głosem poprosiło mnie o przelanie jakichś pieniędzy albo nie daj Boże poinformowało, że moja córka jest w niebezpieczeństwie. Także, yym, nie wiem jeszcze kto– Natalia może zna tą odpowiedź, ureguluje te kwestie, ale-ale no musimy się przyzwyczaić do tego, że to jest narzędzie i od nas trochę zależy od człowieka, jak będzie wykorzystywana. Natalia, z Twojej perspektywy jak to powinno być zorganizowane, żeby było dobrze? Wiadomo, że trw-trwają regulacje nad sztuczną inteligencją aktualnie, czyli mówię tutaj o AI Act, który został zaakceptowany, ale nie został wdrożony, tak? Czyli zanim zostanie wdrożony, to jeszcze nam zajmie, myślę, że co najmniej dwa-dwa lata i pewnie dłużej. Natomiast problem jest z tą technologią taki, że ona ma pewną formę autonomiczności, czyli my jej nie możemy porównać do takiego narzędzia, jakim jest nóż, tak? Który po prostu się nie zmienia. To, co powiedziałam wcześniej, no systemy AI są w pewnym sensie autonomiczne i będą coraz bardziej autonomiczne, czyli mogą podejmować decyzje, które są wymierzone w człowieka. I teraz generalnie w Unii Europejskiej mamy taką zasadę, yy, która jest zasadą ostrożności w kontekście technologii. To było– nie pamiętam, w którym roku to było przyjęte — albo w dwa tysiące piątym, albo dwa tysiące piętnastym. Chyba dwa tysiące piątym. Generalnie zasada ostrożności polega na tym, że– w dużym skrócie: jeżeli dana technologia może mieć nawet hipotetyczne zagrożenie dla ludzkości, w związku z tym nie powinna być w żaden sposób wdrożona. No więc wiemy, że ta zasada po prostu nie działa, tak? Bo byśmy nie mogli wdrożyć żadnej technologii. Nie moglibyśmy- Na przykład dronów Dronów, telefonów komórkowych, kolei szybkich prędkości, social mediów, 5G i tak dalej. W związku z tym jest inna zasada. Zasada ona wymyślona przez Maxa More, która nazywa się zasadą proaktywności. Ona polega na tym, że owszem, wdrażamy technologię, ale stosujemy pewne zasady, czyli na przykład stale monitorujemy jej konsekwencje, ustalamy jej ryzyko, eliminujemy na przykład te, to ryzyko, które jest krótkoterminowe, czyli na przykład deep fake’i. Ono ma wyższy priorytet w kontekście usuwania. Stale sprawdzamy na przykład, czy to jest zgodne z etyką i ludzkimi wartościami. Więc my tak naprawdę musimy totalnie zmienić podejście do regulowania sztucznej inteligencji. Tutaj to, co jest jeszcze ważne, to jest transparentność i otwartość, czyli bycie na przykład w kontakcie z ludźmi. Powiedziałeś o dronach. Zwróć uwagę, że wszystkie decyzje dotyczące tej technologii albo dzieją się– podejmują je technokraci, albo podejmują je regulatorzy. Natomiast nikt nas nie pyta o zdanie nas jako społeczeństwa, czy my chcemy, żeby drony w ogóle były wykorzystywane To jest znakomity, znakomita puenta, dlatego że– Zosiu, czy ty masz świadomość, czy czasem masz, miewasz takie koszmary, że być może tworzysz potwora, który zaszkodzi ludzkości, a ty Tomku, nie uśmiechaj się tak niewinnie, bo ty finansujesz taki rozwój. Miewam takie koszmary. To znaczy raczej staram się robić, co mogę, żeby– u nas akurat to działa w ten sposób, że nie-nie generujemy głupot, to znaczy nie generujemy tekstu AI, raczej tylko rozpoznajemy symptomy i dajemy człowiekowi później możliwość, ee, potwierdzenia tych symptomów. To znaczy, czy rzeczywiście to widzisz i jakby dajemy ci tą podstawę, na której później jakby polecamy, powiedzmy, terapię. Ehm, i dlatego wiesz, czy to w ogóle ma sens, czy to może nie mieć sensu. Ale skąd wiesz, że nie wymknęło Ci się to już spod kontroli? Zaczyna żyć własnym życiem i zaczyna ludziom szkodzić, a nie leczyć. Nie, nie, nie tchnęłam duszy jeszcze w to narzędzie. Jeszcze się to nie stało. Mam nadzieję, że sama. Że sama nie powstała. Tak. Mam nadzieję, że nie. Tutaj odkładając właśnie– bardzo ciekawie powiedziałaś na temat regulacji. Ja mam jeszcze takie spostrzeżenia na temat tego, co możemy robić poza regulacjami. Jedna rzecz dosyć oczywista podejście ludzi będzie się stopniowo zmieniać co do tego, co widzą w internecie. Znaczy teraz jak już widzisz jakiś obrazek, to nie myślisz sobie od razu wow, to jest obrazek, więc to jest dowód. Obrazki za chwilę nie będą dowodami i nawet filmy nie będą dowodami Ale to jest tylko Poprosimy o mikrofon. Że to jest prawda. To jest tak, że nasza bańka rozumie, że obrazek to nie jest żaden dowód, ale myślę, że tak ogóle społeczeństwa, ludzie nie mają świadomości. Weź na przykład pod uwagę osoby tam sześćdziesięcioletnie, które korzystają z internetu, a zupełnie wybory– dokładnie wpływ AI na decyzje czy w ogóle procesy demokratyczne. Więc tutaj bym nie była taka pewna, że ludzie mają tego świadomość. My raczej– przepraszam, że tak ci weszłam w słowo, ale tylko chciałam powiedzieć– my na przykład obserwujemy coś takiego, co się nazywa analfabetyzmem funkcjonalnym, czyli że ludzie tracą zdolność rozumienia tekstu albo czytania ze zrozumieniem czy jasnego formułowania myśli właśnie na skutek sztucznej inteligencji.No tak, to, to jest prawda. Tak samo teraz telefony i oszukiwanie, wyciąganie pieniędzy na wnuczkę może się zrobić jeszcze bardziej, no, zagrożeniem dla starszych osób. Zosiu, już się zrobiło, już się wyciąga ogromne kwoty, już nie tylko imitując głos, ale obraz, który sprawia wrażenie tak autentycznego, że prezesi firm podejmują decyzje o wielomilionowych przelewach. Tak, no, podejście, podejscie, podejście społeczeństwa musi się do tego zmienić. Znaczy, jakby edukacja musi pójść do przodu pod tym kątem. No, niestety, to nie jest takie łatwo wdrażalne, jak się mówi. To jedna rzecz. Druga, ee, powstają narzędzia do rozpoznawania tego, czy coś było wygenerowane przez AI. I to też może jakby długoterminowo mieć pozytywny wpływ na to, czy, czy potrafimy rozpoznać fejk od niefajka. Tak samo, jak w sumie powstają startupy, które walczą, specjalizują się w walce z dronami i po prostu to jakby wraz z istnieniem dronów coraz więcej jest takich narzędzi. No słuchajcie, słuchając tej dyskusji, chciałbym do takiego staropolskiego powiedzenia się odwołać. Mądry ziemianin po szkodzie. Ja mam takie wrażenie, że jak już ta technologia pójdzie własnym, własną drogą, to my się wtedy zorientujemy, co stworzyliśmy. Tomku, do Ciebie takie proste pytanie przygotowałem dla Ciebie. Powiedz mi Tomaszu, czy sztuczna inteligencja wykreuje nowy typ lidera biznesowego? Nie wiem. Ostrzegałeś, że możesz w ten sposób odpowiadać. Nie braliśmy tego na serio. Nie mam pojęcia. Nie wiem. Myślę, że generalnie mądrym jest, patrząc na technologię, nie skupiać się na tym, co jest nowe i błyszczące, tylko co jest niezmienne i wartościowe dla nas jako ludzi. I w byciu liderem są rzeczy, które są niezmienne od zawsze. Stąd te wszystkie odgrzewane kotlety książek leadershipowych. Bądź jak Napoleon i tak dalej. No bo my wszyscy szukamy jakichś liderów w swoim życiu. Kogoś, kto nam trochę ułatwi życie, podejmie jakieś wybory za nas. Więc to jest ta niezmienna część, no. Ja Cię tak zaczepiam, Tomek, z takiego jednego powodu tak naprawdę, bo Ty jesteś jednym z liderów, który w pewien sposób kreuje ten przyszłość i czy masz jakiś taki swój kanon zasad, kryteriów i mówisz w Zosię bym zainwestował, w Tomka nie. No spróbuj, nie. Myślę, że– Ale mówimy o tym aspekcie etycznym. Każdy ma ten swój kanon. I właśnie to ciekawe co do wyborów inwestorów też, bo ja myślę, że my wszyscy mamy wpływ na to, gdzie sztuczna inteligencja czy każda inna technologia idzie. Głosujemy własnymi przecież pieniędzmi jako konsumenci, a firmom na tym zależy, więc mamy wszyscy bardzo duży wpływ. Fakt, że on jest często poniewczasie, nie? Jakby już dużo jest krzywdy zrobionej. Ludzkość się nagle orientuje, że, o kurczę, to jednak nie jest takie fajne. No i zazwyczaj to się kończy jakimś zakazem jednak, nie? Że tego nie robimy, słuchajcie, to już nie jest fajne teraz. Ja myślę, że tak będzie podobnie z AI. Wszyscy bierzemy jakąś odpowiedzialność za, za nasze wybory. Myślę, że wielu inwestorów ma takie etyczne też macierze decyzyjne, tak? Czyli na przykład drony są bardzo ciekawym casem, tak? Ja tutaj, będąc na Infoshare widziałem świetną prezentację drona, który może latać i wykrywać ludzi, bezzałogowo, co jest super we wszelkich akcjach ratowniczych, ale bardzo łatwo mi sobie wyobrazić, że jak już ich rozpozna, to zamieni się w drona kamikadze, prawda? No i teraz jakby, czy inwestować w taką firmę, czy nie? Bardzo ciekawe pytanie, głównie o wartości znowu founderów, nie? A w drugiej linii obrony, jeśli nie wartości founderów, czyli podważacie to tutaj wszyscy, że wartości, powiedzmy, OpenAI czy gdzieś są może nie najwyższych lotów, no to regulacje. Ja myślę, że to jest takie dwie linie obrony, którą mamy na, na technologię O etyce nie rozmawiamy, regulacje nie nadążają. Tomek, jakie jest Twoje zdanie? Mogę nawiązać do Twojego pytania. Myślę, że będzie łatwiej w dzisiejszych czasach być dobrym liderem, skutecznym liderem, jeżeli będzie się znało te technologie i dobrze z nich korzystało. To jest moja definicja tego dobrego lidera, który świadomy jest rozwiązań technologicznych i umie z nich w dobry sposób, wartościowy sposób korzystać. Natalia, to do Ciebie zwrócę się z takim intelektualnym wyzwaniem, takim apelem, takie Twoje przesłanie do twórców AI, takie przesłanie gdańskie, które popłynie stąd w świat. Na co powinniśmy zwracać szczególną uwagę? O czym nie powinniśmy zapominać, a na czym trzeba położyć szczególny akcent, nacisk? Mówimy o twórcach, mówimy o inwestorach, mówimy o przedsiębiorcach. To, co powiedział Tomek. Tomek powiedział, że tak naprawdę chodzi o wartości founderów, a ja bym to nazwała po prostu, że chodzi o to, żeby być po prostu dobrym. Ja wiem, że to jest technologia, która przynosi dzisiaj gigantyczne przychody, gigantyczne zyski. Mówimy o technological arms race, o władzy, którą nam to daje. Natomiast realnie ta historia jest o wyborach i o tym, jakimi ludźmi jesteśmy, kim chcemy po prostu w przyszłości być. Bardzo dziękuję. Zosiu, ostatnie słowo należy do Ciebie. Jak się już zorientujesz, że to wszystko idzie w Twojej spółce w złym kierunku, niezależnie od tego, ile pracy włożyłaś, ile pieniędzy zainwestowałaś, zatrzymasz ten proces? Mocno ograniczę. Może w ten sposób też dlatego, że po drugiej stronie u nas na platformie są psychoterapeuci. Więc to nie jest tylko moje widzimisię, jakie ja mam wartości, ale też psychoterapeuci się zbuntują, więc muszę. Bardzo dziękuję. Mam nadzieję, że spotkamy się tutaj wkrótce, za dwa, trzy lata i ciągle będziemy mogli się dotykać, prawda, Tomku? I rozmawiać jak ludzie z ludźmi. Natalia Hatalska, Tomasz Karwatka, Ania Nowak, Tomek Plata, Zofia Smoleń, bardzo serdecznie dziękuję za udział w naszej audycji. (muzyka) Firmament. A my kontynuujemy naszą podróż od morza do Karpat. Za dwa tygodnie, jak dobrze pójdzie, usłyszymy się z Rzeszowa, do którego zawita mocno startupowa społeczność. Nic nas też w związku z tym nie mogło tam zabraknąć. A więcej naszych rozmów w podcastach Radia 357, a także na kanałach programu Incredibles Sebastiana Kulczyka. Paweł Sołtys, Jarosław Sroka. Do usłyszenia.