Oszustwa z wykorzystaniem sztucznej inteligencji – nowe zagrożenie dla seniorów

Wraz z rozwojem technologii sztucznej inteligencji (AI), oszuści zyskują nowe narzędzia do wyłudzania pieniędzy i manipulowania ofiarami, w tym w szczególności osobami starszymi. Seniorzy, którzy często nie są świadomi potencjału technologii AI, stają się celem przestępców wykorzystujących zaawansowane metody oszustw, takie jak deepfake i inne narzędzia manipulacji audio-wizualnej.

1. Jak działają oszustwa oparte na AI?

Oszustwa z wykorzystaniem sztucznej inteligencji opierają się na generowaniu fałszywych treści, które do złudzenia przypominają rzeczywiste rozmowy lub materiały. Przykładem są deepfake – zaawansowane narzędzia pozwalające na tworzenie spreparowanych nagrań wideo, w których wizerunek i głos osób zostają sfałszowane. Tego rodzaju technologie mogą być użyte do przekonania seniorów, że rozmawiają z członkami rodziny, np. wnuczkiem, który rzekomo znajduje się w potrzebie finansowej.

Wykorzystanie sztucznej inteligencji daje oszustom nowe możliwości, jak np. tworzenie realistycznych rozmów telefonicznych lub wiadomości głosowych, które mogą wydawać się autentyczne. W połączeniu z technikami wywierania presji i wzbudzania lęku, seniorzy mogą łatwo paść ofiarą manipulacji i przekazać oszustom pieniądze​.

2. Przykłady najnowszych metod oszustw

  • Fałszywe połączenia telefoniczne i nagrania – Oszuści generują realistyczne rozmowy z udziałem bliskich osób seniorów, naśladując ich głosy za pomocą technologii AI. Przykładem może być oszustwo „na wnuczka”, gdzie zamiast klasycznego telefonicznego oszustwa, przestępcy mogą wykorzystać technologię deepfake, by stworzyć przekonujące nagranie głosowe wnuczka proszącego o natychmiastową pomoc finansową.
  • Deepfake w komunikatorach wideo – Przestępcy mogą również używać technologii deepfake, aby stworzyć fałszywe rozmowy wideo, co dodatkowo utrudnia wykrycie oszustwa. W takim przypadku seniorzy widzą osobę, która wygląda i brzmi jak ich krewny, co czyni oszustwo niezwykle przekonującym​.

3. Jak chronić seniorów przed oszustwami?

Ochrona seniorów przed oszustwami z wykorzystaniem AI wymaga podjęcia kilku kroków:

  • Edukacja i świadomość – Kluczowym elementem ochrony jest edukacja seniorów na temat nowych technologii oraz ryzyko związanych z oszustwami. Seniorzy powinni być regularnie informowani o możliwościach manipulacji za pomocą deepfake i fałszywych rozmów telefonicznych.
  • Weryfikacja informacji – Warto wprowadzić zasadę, że każdy prośba o pomoc finansową, szczególnie nagła, powinna być zweryfikowana przez kontakt z osobą, która rzekomo się z nimi skontaktowała. Powinno się to odbyć za pomocą innego kanału komunikacji – np. dzwoniąc bezpośrednio na znany numer telefonu krewnych​.
  • Podnoszenie świadomości o cyberbezpieczeństwie – Rodziny i opiekunowie powinni zadbać o to, aby seniorzy mieli podstawową wiedzę na temat cyberbezpieczeństwa, w tym nie klikania w podejrzane linki, nieudostępniania danych osobowych przez Internet oraz sprawdzania wiarygodności ofert i próśb​.

4. Podsumowanie

Oszustwa z wykorzystaniem sztucznej inteligencji to nowe, rosnące zagrożenie, które wymaga większej świadomości i działań prewencyjnych. Seniorzy, często bardziej podatni na manipulacje, mogą być szczególnie narażeni na tego rodzaju oszustwa. Dlatego tak ważne jest, aby regularnie informować ich o zagrożeniach, uczyć metod weryfikacji informacji oraz dbać o ich bezpieczeństwo w świecie cyfrowym.