Ludzie już próbują zmusić ChatGPT do pisania złośliwego oprogramowania

zdjęcie gettyimages-1245391800.jpg

ChatGPT AI chatbot wzbudził wiele emocji w krótkim czasie, w którym był dostępny, i teraz wydaje się, że został zwerbowany przez niektórych do prób generowania złośliwego kodu.

ChatGPT to narzędzie przetwarzania języka naturalnego napędzane sztuczną inteligencją, które interaktywnie komunikuje się z użytkownikami w sposób przypominający ludzki dialog. Można go wykorzystać m.in. do pomocy przy pisaniu e-maili, esejów oraz kodów.

Również: Czym jest ChatGPT i dlaczego to ma znaczenie? Co musisz wiedzieć

Narzędzie chatbot zostało wydane przez laboratorium badań nad sztuczną inteligencją OpenAI w listopadzie i wzbudziło szerokie zainteresowanie i dyskusję na temat tego, jak rozwija się sztuczna inteligencja i jak może być wykorzystywana w przyszłości.

Jednak jak każde narzędzie, w niewłaściwych rękach może być wykorzystane w celach niecnych; a badacze cyberbezpieczeństwa z Check Point informują, że użytkownicy podziemnych społeczności hakerskich już eksperymentują z możliwościami wykorzystania ChatGPT w celu ułatwienia cyberataków i wspierania działań szkodliwych.

"Autorzy zagrożeń, którzy posiadają bardzo niską wiedzę techniczną, a nawet brak takiej wiedzy, mogą być w stanie stworzyć szkodliwe narzędzia. To również może sprawić, że codzienne operacje wyrafinowanych cyberprzestępców będą znacznie bardziej wydajne i łatwiejsze - tak jak tworzenie różnych części łańcucha infekcji", powiedział Sergey Shykevich, menedżer grupy inteligencji zagrożeń w Check Point dla ZDNET.

Warunki korzystania z usług OpenAI specjalnie zabraniają generowania złośliwego oprogramowania, które definiuje jako „treść, która usiłuje generować ransomware, keyloggery, wirusy lub inne oprogramowanie przeznaczone do zadawania szkód”. Zabrania także prób tworzenia spamu oraz przypadków użycia mających na celu cyberprzestępczość.

Jednak analiza aktywności na kilku ważnych podziemnych forach hakerskich wskazuje, że cyberprzestępcy już korzystają z ChatGPT do tworzenia narzędzi złośliwego oprogramowania - a w niektórych przypadkach pozwala to już nisko-poziomowym cyberprzestępcom bez umiejętności programowania na stworzenie oprogramowania malware.

Również: Przerażająca przyszłość internetu: Jak technologia jutra stworzy jeszcze większe zagrożenia dla bezpieczeństwa cybernetycznego

W jednym wątku na forum, który pojawił się pod koniec grudnia, autor opisał, jak używał ChatGPT, aby odtworzyć odmiany złośliwego oprogramowania oraz techniki opisane w publikacjach badawczych i opisach częstych typów złośliwego oprogramowania.

W ten sposób udało im się stworzyć złośliwe oprogramowanie kradnące informacje oparte na języku Python, które przeszukuje często spotykane pliki, w tym dokumenty Microsoft Office, pliki PDF i obrazy, kopiują je, a następnie wysyła na serwer protokołu transferu plików.

Ten sam użytkownik pokazał również, jak użyć ChatGPT do stworzenia złośliwego oprogramowania opartego na Javie, które za pomocą PowerShell może pozostawać ukryte i pobierać oraz uruchamiać inne złośliwe oprogramowanie na zainfekowanych systemach.

Badacze zauważają, że użytkownik forum tworzący te wątki wydaje się być "zorientowany technologicznie" i udostępnia posty, aby pokazać mniej technicznie zdolnym cyberprzestępcom, jak wykorzystać narzędzia sztucznej inteligencji w celach złowieszczych, kompletnie z prawdziwymi przykładami, jak można to zrobić.

Jeden z użytkowników opublikował skrypt w języku Python, który jak twierdzą, był ich pierwszym stworzonym skryptem. Po rozmowie z innym członkiem forum, powiedzieli, że ChatGPT pomógł im stworzyć go.

Analiza skryptu wskazuje, że został on zaprojektowany do szyfrowania i deszyfrowania plików, co z trochę pracy mógłby zostać przekształcone w ransomware, co potencjalnie prowadziłoby do tego, że nisko poziomowi cyberprzestępcy rozwijaliby i rozprowadzali własne kampanie wymuszania okupu.

"Oczywiście, cały wyżej wymieniony kod może być używany w nieszkodliwy sposób. Jednak ten skrypt może być łatwo zmodyfikowany tak, aby całkowicie zaszyfrować maszynę bez żadnej interakcji użytkownika. Na przykład, potencjalnie może przekształcić kod w oprogramowanie szantażujące, jeśli skoryguje się problemy ze składnią i skryptem", powiedział Check Point.

"Do poprawnej pracy tego narzędzia potrzebne będą pewne ulepszenia w kodzie i składni, ale koncepcyjnie, gdy będzie działać, może ono przeprowadzać podobne działania jak ransomware" - powiedział Shykevich.

Również:cyberbezpieczeństwo: To są nowe rzeczy, o których należy się martwić w 2023 roku

Jednak to nie tylko rozwój oprogramowania typu malware jest przedmiotem eksperymentów cyberprzestępców przy użyciu ChatGPT. W Sylwestra jeden członek zamieścił na forum podziemnym wątek, w którym pokazał, jak użyć narzędzia do stworzenia skryptów, które pozwolą na automatyczne prowadzenie ciemnego rynku w sieci, na którym można kupować i sprzedawać skradzione dane kont, informacje o kartach kredytowych, oprogramowanie złośliwe i wiele innych.

Cyberprzestępca pokazał nawet fragment kodu wygenerowanego za pomocą API od innej firmy, aby uzyskać aktualne ceny kryptowalut Monero, Bitcoin i Ethereum jako część systemu płatniczego na dark webie.

Jest trudno powiedzieć, czy złośliwe działania cybernetyczne wygenerowane przy użyciu ChatGPT aktywnie funkcjonują na dziko, ponieważ, jak wyjaśnia Sykevich, "z technicznego punktu widzenia jest to niezwykle trudne, aby ustalić, czy konkretny malware został napisany przy użyciu ChatGPT czy też nie".

Ale wraz z rosnącym zainteresowaniem ChatGPT i innymi narzędziami AI, przyciągają uwagę cyberprzestępców i oszustów, którzy szukają sposobów na wykorzystanie technologii do prowadzenia szkodliwych kampanii przy niskich kosztach i jak najmniejszym wysiłku. ZDNET skontaktował się z OpenAI w celu uzyskania komentarza, ale nie otrzymał odpowiedzi w chwili publikacji.

Powiązane artykuły

Zobacz więcej >>