Nasza Loteria NaM - pasek na kartach artykułów

Jak żyć ze sztuczną inteligencją? Rozmowa o szansach i zagrożeniach wynikających z rozwoju AI

Andrzej Kowalski
Andrzej Kowalski
Zdaniem Bartosza Bazińskiego nie ma zawodu, który mógłby zostać całkowicie zastąpiony przez AI
Zdaniem Bartosza Bazińskiego nie ma zawodu, który mógłby zostać całkowicie zastąpiony przez AI fot. pixabay
Setki inwestorów, biznesmenów oraz ekspertów od sztucznej inteligencji wzywają do przerwy w rozwijaniu systemów AI. Chodzi o te bardziej zaawansowane od opublikowanego w marcu GPT-4. Wśród osób, które podpisały się pod tym apelem, są m.in. Elon Musk - prezes Tesli, SpaceX i Twittera, Steve Wozniak - współzałożyciel Apple i pisarz Yuval Noah Harari.

Sygnatariusze nawołują do co najmniej sześciomiesięcznej przerwy w rozwijaniu systemów AI (systemów sztucznej inteligencji) zdolniejszych od GPT-4. Ostrzegają także, że w przeciwnym razie może dojść do nieprzewidywalnych skutków „wyścigu o tworzenie coraz potężniejszych modeli”. List został opublikowany na stronie ośrodka Future of Life.

W liście możemy przeczytać, że zaawansowana sztuczna inteligencja może stanowić „głęboką zmianę w historii życia na Ziemi”. Dlatego też, zdaniem sygnatariuszy, powinno się podchodzić do tej technologii z dużą ostrożnością. Brak kontroli i regulacji może - zdaniem autorów pisma - przerodzić się w prawdziwą falę dezinformacji. W tekście zawarto też ostrzeżenie przed masową automatyzacją pracy, a nawet zastąpieniem ludzi przez maszyny.

ZOBACZ TEŻ: Sztuczna inteligencja na rynku pracy. Jak na te zmiany powinni przygotować się pracownicy? Ekspertka wyjaśnia (wideo)

Poprosiliśmy eksperta z zakresu AI o komentarz do treści listu. Bartosz Baziński, programista, COO i współzałożyciel firmy SentiOne (zajmującej się m.in. monitoringiem sieci oraz mediów społecznościowych w oparciu o AI) zaprezentował perspektywę sektora prywatnego. Jego zdaniem przerwanie prac na pół roku jest nierealnym postulatem, ale zgadza się z tym, że należy podjąć jakieś kroki w kierunku edukacji lub regulacji tej technologii:

Czy istnieją już jakieś inicjatywy regulacji rozwoju sztucznej inteligencji w prawie?

Na razie ta technologia rozwija się za szybko, aby regulatorzy mogli za nią nadążyć, ale pojawia się wiele prób w formie opinii prawnych i oświadczeń różnych instytucji. W grudniu 2022 r. Rada Europejska przyjęła wspólne stanowisko w sprawie aktu o sztucznej inteligencji. Ma ono zapewnić, aby systemy AI wprowadzane na rynek UE i używane na jej terenie były bezpieczne i zgodne z obowiązującym prawem w obszarze praw podstawowych oraz z unijnymi wartościami.

W treści stanowiska mowa również o zakazie niektórych praktyk związanych z wykorzystaniem AI, które dotyczą również podmiotów prywatnych czy np. organów ścigania. Z kolei Urząd ds. Praw Autorskich w USA w marcu 2023 r. wydał oświadczenie o dużym znaczeniu dla debaty o prawach autorskich i sztucznej inteligencji, wprowadzające rozróżnienie między dziełem wykonanym przez technologię i przez jej użytkownika. Unia Europejska określiła też niektóre potencjalne sytuacje, kiedy rozwiązania technologiczne, algorytmy i oprogramowanie można opatentować.

Problem zalewu dezinformacją generowaną przez sztuczną inteligencję jest nie tylko realny, ale wręcz jesteśmy na co dzień świadkami jego narastania. Jak temu zapobiec?

Przede wszystkim nie należy przekazywać i rozpowszechniać niezweryfikowanych informacji. Szczególnie uważnie trzeba sprawdzać informacje, które mają clickbaitowe tytuły i/lub wzbudzają skrajne emocje - jak strach, gniew, śmieszność czy zażenowanie. Sensacyjne treści i tytuły w mediach i social mediach są projektowane tak, by grać na emocjach - a jeśli damy się im ponieść, dużo trudniej będzie trzeźwo ocenić sytuację, zweryfikować dane czy poszukać innych źródeł informacji. Najlepiej ufać tylko sprawdzonym agencjom prasowym.

Wskazał pan, że fact-checking jest umiejętnością przyszłości. Co przez to rozumieć, czy rodzi się nowy instrument, który będzie niezbędny w codziennym życiu? Jak go rozwijać?

Przede wszystkim należy być czujnym i z góry wątpić w większość treści dostępnych online, zostać internetowym sceptykiem. Trzeba weryfikować informacje, szukać ich źródeł i autorów. Kiedyś mówiło się „czekaj, sprawdzę w necie”, a teraz powinno się mówić „czekaj, sprawdzę w necie, a potem zweryfikuję”. Wbrew pozorom ChatGPT może być świetnym narzędziem do nauki fact checkingu. Zachęcam wszystkich nauczycieli, by zadali uczniom taką pracę domową: „rozmawiaj z ChatGPT tak długo, aż przyłapiesz go na pięciu kłamstwach”. My na przykład pytaliśmy go o naszych pracowników różnych szczebli - o wszystkich twierdził, że są CEO SentiOne.

Wspomniał pan też, że należy nagłaśniać problemy z AI. Które, oprócz wspomnianego już kłopotu fake newsów, potrzebują więcej uwagi?

Z punktu widzenia zwykłego odbiorcy edukacja związana z fake newsami, potencjalną propagandą i tym, że odpowiedzi ChatGPT, choć pięknie napisane, mogą być błędne, jest zdecydowanie najważniejsza. Jeśli chodzi o środowisko IT, to nieustannie należy przypominać o etyczności sztucznej inteligencji - warto tu wymienić na przykład takie kwestie jak przenoszenie na sztuczną inteligencję nieuświadomionych uprzedzeń i stereotypów, etyczne pozyskiwanie danych czy troskę o reprezentację i brak dyskryminacji w środowisku twórców AI. Im bardziej różnorodne dane, na których AI jest uczona, im bardziej różnorodni badacze i twórcy AI - tym AI będzie bardziej obiektywna i reprezentatywna.

W rękach hakerów znalazły się modele AI. Do czego będą je wykorzystywać, można sobie tylko wyobrażać. Jakie zagrożenie może to stwarzać i jak się na to przygotować?

Sztuczna inteligencja ma niestety mnóstwo zastosowań w cyberprzestępczości i cały czas dowiadujemy się o kolejnych. Na przykład dzięki AI hakerzy mogą omijać filtry antyspamowe i zwiększać skuteczność swoich ataków. Mogą wysyłać bardzo dobrze napisane i przekonujące wiadomości mające na celu wyłudzenie pieniędzy. Przestępcy wykorzystują też uczenie maszynowe do tworzenia skuteczniejszych, bardzo wiarygodnych maili phishingowych. Dzięki sztucznej inteligencji mogą zwiększyć skuteczność odgadywania haseł. Również narzędzia bezpieczeństwa oraz te do poprawiania gramatyki oparte na AI mogą być wykorzystywane do modyfikowania złośliwego oprogramowania i uniemożliwienia jego wykrycia.

Dlatego musimy stać się bardziej świadomym społeczeństwem, dbać o swoje bezpieczeństwo w sieci - uważać, jakie informacje i komu podajemy, szczególnie o sobie i swojej rodzinie. Uważać na zdjęcia, które wrzucamy do internetu - zwłaszcza swoich dzieci. Pamiętać, że wszystkie treści, które zamieszczamy online, będą używane do trenowania modeli AI. Stosować się do ogólnych rekomendacji w zakresie cyberbezpieczeństwa, stosować różne, skomplikowane hasła i zmieniać je co pół roku. Być nieufnym wobec informacji otrzymywanych mailem, SMS-em czy przez komunikatory. Dowolny przestępca może wykorzystać 10 zdjęć jednej osoby, by wygenerować kolejne, niezwykle realistyczne - np. zdjęcie naszego porwanego dziecka w bagażniku samochodu z żądaniem okupu. To przykład z filmu, ale przy obecnej technologii całkowicie możliwy.

Prof. Szczuko z Politechniki Gdańskiej zaznaczył, że ryzyko zastąpienia wielu zawodów algorytmami jest mniejsze niż się może wydawać. Jakie zawody jednak mogą mieć taki problem?

Zgadzam się z tym. Możliwości pracy sztucznej inteligencji są na poziomie stażysty lub juniora, może więc ona stanowić wsparcie w codziennej pracy, ale trzeba jej pilnować i po niej poprawiać. Nie widzę zawodu, który mógłby zostać całkowicie zastąpiony przez AI. Generatywna sztuczna inteligencja, jak nazwa wskazuje, generuje za nas treści. Mówi się więc o zagrożeniu dla zawodów kreatywnych, twórców muzyki, grafików, osób piszących i opracowujących treści… Jednak to, że AI skutecznie wygeneruje prostą umowę sprzedaży, nie oznacza, że zastąpi radcę prawnego i że można jej powierzyć skomplikowane zadania. To samo dotyczy innych zawodów. Zdecydowanie natomiast warto uczyć się korzystać z tej technologii, rozumieć ją i wdrażać ją tam, gdzie to możliwe w codziennej pracy.

W odniesieniu do listu ws. wstrzymania prac nad rozwojem AI na pół roku stwierdził pan, że to postulat nie do wykonania. Jaką alternatywę można zaproponować?

W czasach globalizacji i wolnego rynku bardzo trudno jest wprowadzić regulacje, które dotyczyłyby wielu prywatnych firm działających na różnych kontynentach, w krajach o różnej legislacji i różnym podejściu interpretacyjnym. Jeszcze trudniej byłoby egzekwować ich przestrzeganie. Krajom nie udało się przecież wypracować wspólnego podejścia do pandemii, mimo że stawką było ludzkie życie. Na pewno jednak trzeba i warto dawać odgórne wytyczne i rekomendacje, tak jak w tamtym okresie robiło WHO. Dobrym początkiem byłoby zebranie grupy różnych specjalistów - prawników, legislatorów, naukowców, biznesmenów, inżynierów AI, przedstawicieli think thanków i organizacji pozarządowych - którzy wypracowaliby wspólne stanowisko, ocenili ryzyka i przygotowali wytyczne.

emisja bez ograniczeń wiekowych
Wideo

Wielki Piątek u Ewangelików. Opowiada bp Marcin Hintz

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Materiał oryginalny: Jak żyć ze sztuczną inteligencją? Rozmowa o szansach i zagrożeniach wynikających z rozwoju AI - Dziennik Bałtycki

Wróć na slupsk.naszemiasto.pl Nasze Miasto