Eksperci od cyberbezpieczeństwa ostrzegają: ChatGPT "stworzony dla przestępców"
ChatGPT, który pozwala skutecznie podszyć się pod każdego, jest w cyberprzestrzeni potencjalną bronią masowego rażenia. Za pomocą tego narzędzia przestępcy mogą generować bardzo przekonujące maile phishingowe.
Tak twierdzą eksperci od cyfrowego bezpieczeństwa z firmy Norton. Podobne wnioski płyną z raportu opublikowanego właśnie przez magazyn "New Scientist". Publikacja dowodzi, że ChatGPT może obniżyć koszty generowania oszukańczych wiadomości mail nawet o 96 proc., a więc znacznie ułatwi robotę przestępcom.
AI copywriting tools to check out:
— Charles Miller (@writingtoriches) January 18, 2023
1. Chat GPT - Research
2. QuillBot - Paraphrasing
3. StoryLab - Hooks and outlines
4. Grammarly - Grammar/spelling
5. Hemingway - Conciseness/clarity
6. Power Thesaurus - Thesaurus
7. Tweet Hunter - Content creation
What else?
Z czego wynika zagrożenie? Jak zauważa w raporcie Julia O’Toole, dyrektorka zarządzająca w firmie MyCena Security Solutions, ChatGPT całkowicie usuwa barierę językową, co daje cyberprzestępcom łatwość działania na całym świecie.
To i podobne narzędzia wykorzystujące sztuczną inteligencję znacznie utrudniają wykrycie próby wyłudzenia. Trzeba zatem wzmóc czujność, bo maile, w których ktoś będzie prosił nas o podanie danych, zwłaszcza danych dostępowych do kont, będą coraz lepiej spreparowane.
Warunkiem powodzenia próby wyłudzenia jest wzbudzenie zaufania odbiorcy maila, dlatego oszuści starają się, aby te wiadomości były jak najbardziej realistyczne. Główną przeszkodę stanowiły do tej pory brak znajomości języka odbiorcy. Nieudolne tłumaczenia sprawiały, że wielu ludzi było w stanie bez problemu wykryć fałszerstwo. Maile generowane przy pomocy narzędzi typu ChatGPT będą znacznie bardziej wiarygodne.
"Jakość i szybkość działania ChatGPT potężnie zwiększają wydajność. Dzięki niemu przestępcy mogą mnożyć złożone kampanie phishingowe i szybciej generować wiadomości mailowe z większymi szansami na sukces" - tłumaczy Julia O’Toole.