Szef OpenAI - Sam Altman, Wojciech Zaręba – współzałożyciel firmy Open AI oraz Szymon Sidor – naukowiec wybrali się w podróż po świecie, by – jak sami zrelacjonowali – porozmawiać z użytkownikami, programistami i przedstawicielami instytucji rządowych o możliwościach i zagrożeniach wynikających z rozwoju sztucznej inteligencji (SI). Stworzone przez nich narzędzie – ChatGPT4 zyskało ogromną popularność na całym świecie i stało się przedmiotem poważnych debat.

Reklama

Wtorkowe spotkanie (23 maja) na Uniwersytecie Warszawskim obyło się w ramach inicjatywy IDEAS NCBiR. Prowadząca spotkanie dziennikarka zapytała, czy twórcy ChatGPT nie żałują, że udostępnili narzędzie szerokiemu gronu odbiorców zbyt szybko, jeszcze przed wprowadzeniem jakichkolwiek regulacji szykowanych np. przez Unię Europejską.

- Częściej spotykaliśmy się z zarzutem, że działamy zbyt wolno; że zbyt długo – bo aż 8 miesięcy trzymamy ChatGPT w laboratorium. Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych. Ten proces uczenia się musi odbywać się w ścisłej współpracy ze społeczeństwem – powiedział szef OpenAI Sam Altman.

Podkreślił też, że jak każda znacząca dla rozwoju ludzkości technologia, SI też może być wykorzystana w zły sposób. Jako przykład podał energię atomową.

- Na całym świecie musimy pochylić się nad szukaniem rozwiązań, żeby się zabezpieczyć. Może SI nie będzie aż tak niebezpieczna jak energia atomowa, która wpadnie w niepowołane ręce, ale dopóki nie poznamy jej bliżej, powinniśmy się zachowywać tak, jakby była podobnie niebezpieczna – przestrzegał Altman.

Zapytany czy nie boi się, że stworzone przez firmę OpenAI rozwiązanie oparte na sztucznej inteligencji może zagrażać demokracji przez szerzenie dezinformacji podczas kampanii wyborczych w różnych krajach, przytaknął.

- Obawiamy się. Jedną z rzeczy, którą staramy się robić podczas naszej podróży po świecie, są rozmowy z ludźmi, którzy tworzą regulacje prawne. Potrzebny jest system monitorowania firm takich jak nasza, by użytkownicy wiedzieli, że rozmawia z nimi sztuczna inteligencja, a nie człowiek - zaznaczył. Dodał, że jednocześnie część pracy zawsze będzie w tzw. otwartym dostępie (open access) i „tego nie da się zatrzymać”, więc „trzeba pomyśleć o adaptacji społeczeństw do tego stanu rzeczy”.

Reklama

Na pytanie publiczności: „skąd czerpiecie wiedzę na temat – co jest etyczne w obszarze sztucznej inteligencji?” – Altman, Zaręba i Sidor nie potrafili odpowiedzieć żadnym konkretem.

- Chcemy, żeby jakość życia ludzi na świecie zmieniała się na lepsze. Robimy też wszystko, by rozwiązywać problemy związane z bezpieczeństwem, dlatego rozmawiamy z wieloma instytucjami – powiedział Altman.