Możesz uznać, że to o czym będę dzisiaj opowiadał jest z pogranicza science-fiction i szczerze mówiąc, będziesz mieć dużo racji. Natomiast weź pod uwagę, że po pierwsze sztuczna inteligencja rozwija się dużo szybciej, niż się tego spodziewaliśmy. Po dugie w życiu jest tak, że jeżeli jakaś technologia może zostać wykorzystana w niecnych celach, to na pewno zostanie. Historia daje nam na to wiele przykładów. Czemu tym razem ma być inaczej?
Co mamy dzisiaj?
Zanim zaczniemy rozmawiać o mrocznej przyszłości, warto powiedzieć, co pozytywnego mamy dzisiaj. W tej chwili obserwujemy szaleńcze tempo rozwoju sztucznej inteligencji. Przez ostatnie półtorej roku byliśmy też świadkami niesamowitej popularyzacji tej technologii. Powstały tysiące bardzo przydatnych i ciekawych narzędzi. Jak grzyby po deszczu wyrastają startupy z tej dziedziny, uzyskując coraz bardziej szalone wyceny.
Wśród dużych modeli językowych od dłuższego prym wiedzie ChatGPT4, będący produktem firmy Open AI, która jest partnerem Microsoftu. Po piętach depcze im natomiast Google wraz z rodziną modeli Gemini. To jednak nie jest wszystko, być może modele open source nie przebiły się do publicznej świadomości, natomiast one także rozwijają się bardzo szybko. Ba, krzywa rozwoju jest nawet bardziej stroma niż w przypadku projektów zamkniętych. Tutaj niezaprzeczalne zasługi ma firma Meta, będąca właścicielem Facebooka, która zdecydowała się opublikować swój duży model językowy na zasadach Open Source. Oczywiście ich Llama nie jest jedynym otwartym dużym modelem językowym, natomiast trzeba im przyznać, że był to świetny krok, sporo zmieniający na rynku, niezależnie od tego, jakie były przesłanki decyzji i na ile została ona w pewien sposób wymuszona. Już w tej chwili mamy zapowiedzi, że kolejna, trzecia już wersja modelu, będzie udostępniona na tych samych zasadach. A podejrzewamy, że prawdopodobnie będzie znacznie lepsze od poprzedniej.
Czy sztuczna inteligencja zawładnie światem?
Trzeba zdać sobie sprawę i powiedzieć jasno, że dzisiejsza sztuczna inteligencja nie jest czymś, co ma szansę w wymknąć się spod kontroli, czy zapanować samodzielnie nad światem. Sztuczna inteligencja sama w sobie nie ma celów, do których chciałaby dążyć. Z tego co wiemy, nie ma także świadomości, jakkolwiek by ją definiować. Chociaż oczywiście pamiętam moment, w którym jeden z pracowników Google ogłosił, że ich sztuczna inteligencja uzyskała samoświadomość, natomiast bardzo szybko zostało to zdementowane przez firmę. Było to jeszcze przed czasami popularyzacji sztucznej inteligencji, więc lektura treści czata upublicznionego przez pracownika powodowała, że ciarki przechodziły po plecach. Pamiętam to jak dziś. Natomiast oczywiście świadomość to coś, co łatwiej zasymulować niż w rzeczywistości osiągnąć.
AI nie ma nawet pamięci. A to, że jest w stanie odpowiadać zgodnie z kontekstem wcześniejszej rozmowy, wynika tylko z faktu, że za każdym razem do przetworzenia wysyłana jest cała konwersacja. Stąd też zresztą zwykle pochodzą limity długości czatów. Chociaż trzeba też jasno powiedzieć, że prowadzone są różne eksperymenty. Wystarczy wspomnieć pracę „MemoryBank: Enhancing Large Language Models with Long-Term Memory”. A pewnie z bardzo wielu rzeczy nie zdajemy sobie w tej chwili nawet sprawy.
Oczywiście nie jestem w stanie powiedzieć, co będzie jutro i pewnie nikt nie jest w stanie, bo zależy to od dalszego rozwoju sytuacji. I od tego, jakie eksperymenty będziemy prowadzić i jakie mechanizmy zaczniemy wprowadzać, które potencjalnie mogłyby spowodować na przykład chęć walki instancji AI o przetrwanie czy rozwój podobny do ewolucyjnego. Z całą pewnością katastroficznej wizje są na razie przedwczesne, ale nigdy nie należy mówić nigdy. Może bardziej należy się obawiać zmian społecznych i potencjalnej redefinicji porządku światowego.
To ludzie popełniają przestępstwa
Zanim sztuczna inteligencja rozwinie się na tyle, żeby mogła zdobyć świadomość, czy chęć realizacji własnych celów, sprzecznych z tym, czego chce jej twórca, to człowiek będzie ją wykorzystywać przeciwko drugiemu człowiekowi w niecny sposób. Oczywiście to już się dzieje, ale będą to coraz bardziej wyrafinowane metody. Zresztą tak jak ewoluowały wszystkie inne sposoby oszustw, napędzane rozwojem technologii, social mediów czy Internetu. Czemu tym razem miałoby być inaczej?
Wspaniałe narzędzia do generowania i klonowania głosu, czy też tworzenia oszałamiających grafik i zdjęć sytuacji, które nigdy się nie wydarzyły są świetną pomocą dla kreatywnych twórców. Nie trzeba jednak zbyt dużej wyobraźni, żeby przewidzieć, jak wykorzystać mogą je przestępcy. Oszustwa i manipulacje To duże zagrożenie, na które musimy być przygotowani. Zresztą takie rzeczy już się dzieją. A będą coraz powszechniejsze.
Wirusy komputerowe
Wróćmy jednak na chwilę także do przeszłości. Już w latach sześćdziesiątych zeszłego wieku na Uniwersytecie Illinois ukazała się praca naukowa na temat samopowielających się automatów autorstwa matematyka Johna von Neumanna. Już kilka lat później, bo w roku 1971 powstał Creeper, pierwszy program uważany za wirus komputerowy, choć był to bardziej eksperyment naukowy, pokazujący, że teoria o samopowielaniu może być prawdziwa.
Wirusy zagościły na dobre na komputerach domowych w latach osiemdziesiątych i dziewięćdziesiątych zeszłego wieku. Nie były jednak tym, z czym kojarzą się dzisiaj. Na początku były zupełnie niegroźne. Były po prostu pokazem możliwości programisty, czasem formą żartu. Pamiętam wirus Yankee Doodle, który odgrywał charakterystyczną melodię na brzęczącym głośniczku PCta codziennie o 17.
Z czasem zaczęły przybierać formę destrukcyjną, niszczącą dane. Często tworzone z czystej, berezinteresownej złośliwości. Bo, skoro można coś zniszczyć, dlaczego tego nie zrobić? Taka jest natura ludzka. Później przerodziło się to w wielki biznes. Wykradanie danych, szantaż, botnety, ataki, wykorzystywanie mocy obliczeniowej do kopania kryptowalut. Tak, po prostu z czasem wszystko się komercjalizuje.
Trochę gdybania o przyszłości
Puścimy na chwilę wodze fantazji. Wyobraź sobie jakiś inteligentny byt na twoim komputerze lub telefonie, obserwujący Cię cały czas niepostrzeżenie bez Twojej świadomości. Mający dostęp do tego, co robisz na codzień, do twoich plików, planów, mediów społecznościowych, kamery, mikrofonu. Wyobraź sobie, że jest jak szpieg. Nie tylko potrafi rejestrować dane, natomiast także je rozumie. Potrafi analizować, i wie co jest cenne, a co nie. Co jest kluczem do twoich kryptowalut, hasłem do banku, intymnym zdjęciem. Wie z kim się komunikujesz i w jaki sposób. Na podstawie historii Twoich rozmów z daną osobą jest w stanie podrobić twój niepowtarzalny styl i nawiązać do kontekstu Waszych wcześniejszych rozmów. Jest w stanie sklonować Twój jedyny w swoim rodzaju głos. A mając dostęp do telefonu lub komunikatorów, jest w stanie zadzwonić do twoich bliskich, pracodawcy, banku. Nie budząc żadnych podejrzeń. A może wiedzieć, że w tym czasie jesteś na basenie lub lecisz samolotem i nie zareagujesz szybko. Przecież może analizować i wyciągać wnioski. Ma dostęp do tysięcy twoich zdjęć, które tak chętnie robisz swoim smartfonem. Jest więc w zasadzie jest w stanie wygenerować każde inne. Robi się nieprzyjemnie, prawda? A jeżeli do tego ma jeszcze cel, żeby cię skrzywić lub okraść?
To oczywiście to brzmi zupełnie nieprawdopodobnie. W tej chwili. Tak, jak teoria samopowielających się programów w 1966 roku. Czemu człowiek miałby robić takie rzeczy? Pewnie na początku po to tylko żeby pokazać, że się da. Może nawet jako praca naukowa. Zapewne sztuczna inteligencja będzie miała się tylko powielać i ukrywać, w kontrolowanych warunkach, bo bezpieczeństwo najważniejsze. Od starych dobrych wirusów będzie się różnić tym, że sama będzie mogła wyszukiwać informacje o nowo pojawiających się podatności, lukach w programach i je wykorzystywać. A może nawet je znajdować analizując kod programów. Świetny materiał na pracę naukową.
Natomiast z całą pewnością przestępcy, a może nie tylko oni, bardzo szybko odkryją, jakie to rodzi możliwości. Jakie nowe perspektywy dla nieuczciwej działalności. Kradzieże, wyłudzenia, manipulacja, może nawet na masową skalę. Będzie to wymagało pieniędzy, może na początku dużych. Ale czy to na pewno taki problem?
Czy wirus AI byłby już dzisiaj możliwy?
Myślę, że w kontrolowanych warunkach tak. Oczywiście pewnie nie należy oczekiwać spektakularnego sukcesu takie tworu. Ale czy Creeper w 1966 roku miał łatwiej? Zastanówmy się na chwilę nad tym co mamy już dzisiaj i jak mogłoby to być wykorzystane.
Pewnie nie wszyscy zdają sobie sprawę, że duży model językowy można uruchomić na swoim prywatnym komputerze, choćby nawet laptopie. Nieraz przecież słyszeliśmy, jakich to olbrzymich mocy obliczeniowych wymaga szkolenie sztucznej inteligencji. Tak to prawda, proces szkolenia jest długi i kosztowny, natomiast do działania modelu wystarczy sprzęt trochę lepszy niż przeciętny. Dodatkowo można też zaobserwować trend coraz lepszego wyszkolenia modeli o mniejszej liczbie parametrów, czyli lżejszych. To dzięki udziałowi AI w procesie szkolenia uzyskujemy coraz lepsze wyniki przy mniejszej liczbie parametrów. Wystarczy tu wspomnieć o takich modelach, jak Mistral czy Mixtral.
Jednocześnie moc naszego domowego sprzętu rośnie. A dodatkowo można się spodziewać wysypu dedykowanych układów wspomagających proces przetwarzania danych przez AI, zwane inference, czyli wnioskowaniem. Spowoduje to, że nasze prywatne urządzenia takie jak komputery czy telefony, będą w stanie jeszcze sprawniej uruchamiać sztuczną inteligencję. Może więc w przyszłości mniej lub bardziej odległej Sztuczna inteligencja, znacznie sprawniejsza niż dzisiejszy ChatGPT4 będzie w stanie działać jako proces w tle, którego nawet nie będziemy zauważać.
W Internecie aż roi się od serwisów, które pozwalają na generowanie nierzeczywistych grafik, także fotorealistycznych. Można też przerabiać istniejące zdjęcia, zmieniać osoby, sytuacje, kontekst. Można nawet tworzyć całe filmy, chociaż w tej chwili raczej krótkie, ale to tylko tymczasowe ograniczenie. Mamy też wiele usług pozwalających zmieniać głos, także świetnie go klonować, łącznie z intonacją i sposobem mówienia. Albo zmieniać po prostu jeden głos na inny. Można choćby tu wspomnieć o Eleven Labs. Choć są już też rozwiązania open source, lokalne nie zostawiające śladów naszej działalności.
Jeżeli chodzi o rozumienie ludzkiej mowy, to także jest świetnie. Whisper od OpenAI robi bardzo duże wrażenie jakością transkrypcji mowy na tekst. Nawet gdy nagranie ma dużo szumu z tła albo wypowiada się na nim kilka osób, nadal radzi sobie świetnie. Lepiej niż człowiek, któremu częściej trzeba powtarzać.
Mamy też projekty takie jak “Self Operating Computer”, które pokazują, że AI może obsługiwać Twój komputer – uruchamiać programy i korzystać z nich bez Twojego udziału. To początek drogi, niektórzy mówią nawet, że na jej końcu nie będzie już osobnych aplikacji, tylko sztuczna inteligencja. Natomiast jasno to pokazuje, że AI operująca komputerem jak człowiek to nie jest tylko fantazja. Już w tej chwili narzędzie osiągnęło jakąś sprawność, a będzie tylko lepiej.
Czy te wszystkie klocki można złożyć razem? Jeżeli dodać do tego techniki już dzisiaj wykorzystywane przez wirusy, to właściwie mamy prawie gotowy przepis na inteligentnego szkodnika.
Pamiętajmy jednak, że gdy powstały wirusy, stworzono także programy antywirusowe. Także, przygotuj się w przyszłości na komunikaty od twojego programu antywirusowego „Wykryto inteligencję niebiałkową na twoim urządzeniu”.
Dobrego świata życzę.