Przedwyborczy wysyp deepfake’ów. Wszędzie możesz się na nie natknąć

Przedwyborczy deepfake to niebezpieczeńswo dla każdego, kto szuka informacji w sieci, jak mężczyzna na zdjęciu.

W nadchodzących miesiącach, kiedy ponad 50 krajów, w tym Stany Zjednoczone i Polska, przygotowuje się do wyborów, świat cyfrowy staje na krawędzi zwiększonej aktywności. Analitycy przewidują, że szczyt produkcji deepfake’ów, czyli sztucznie generowanych treści wprowadzających w błąd, przypadnie na lato. Ten inny rodzaj uczenia maszynowego może być poważnym zagrożeniem.

Zamiast usilnie i nieudolnie próbować zupełnie wyeliminować dezinformację, bardziej pragmatyczną strategią wydaje się chęć ograniczenia jej skutków. Tak czy inaczej, na sztuczną inteligencję trzeba uważać. Inaczej wybory samorządowe i inne mogą być zagrożone.

Sztuczna inteligencja w służbie dezinformacji

Profesor Neil Johnson z Uniwersytetu Jerzego Waszyngtona, wiodący ekspert w dziedzinie sieci online, zwrócił uwagę na nieograniczony potencjał sztucznej inteligencji do generowania treści zdolnych wpłynąć na wyniki wyborów. W świetle zbliżających się wyborów w dużych demokracjach, w których głosy ma oddać prawie 3 miliardy osób, ryzyko manipulacji i szerzenia fałszywych informacji osiąga niepokojące rozmiary.

Johnson twierdzi, że niekontrolowane wykorzystanie AI może przynieść nieprzewidywalne i często negatywne skutki, zwłaszcza w kontekście politycznym. Może to doprowadzić do manipulowania rzetelnymi informacjami, źle wpłynąć na wyniki wyborów i podważyć zaufanie obywateli do demokratycznych instytucji. Rosnące zależności od technologii AI w decyzjach politycznych nieuchronnie zwiększają ryzyko błędów i nadużyć, co stanowi wyzwanie dla globalnego bezpieczeństwa i porządku społecznego.

Szeroko zakrojone badania ujawniły, że to mniejsze platformy cyfrowe są głównymi inkubatorami dla „złych aktorów”, szerzących dezinformację za ich pośrednictwem. W tym kontekście europejski akt o usługach cyfrowych, choć ambitny, wydaje się nie trafiać w sedno problemu z uwagi na pozostawienie mniejszych platform poza zasięgiem regulacji.

Deepfake – potencjalne zagrożenia ze strony sztucznej inteligencji

Wykorzystanie technologii deepfake, będącej rodzajem uczenia maszynowego opartego na sztucznej inteligencji, staje się coraz powszechniejsze w publikacji materiałów w internecie, co z jednej strony może rozwiązywać problemy, ale z drugiej tworzyć kolejne. Przedwyborczy wysyp deepfake’ów, wykorzystujących technikę zamiany twarzy za pomocą technologii opartej na sztucznej inteligencji, stwarza nowe zagrożenia związane z manipulacją opinii publicznej. Ta innowacyjna forma fałszywych treści wykorzystuje algorytmy uczenia maszynowego do generowania materiałów wideo, w których mimika jest modyfikowana bez zgody przedstawionych osób. To jako jeden z elementów może wpłynąć na wyniki wyborów.

Sztuczna inteligencja, aplikując różne rodzaje uczenia maszynowego, umożliwia tworzenie realistycznych obrazów i filmów, w przypadku których trudno odróżnić rzeczywistość od fikcji. To staje się podstawą deepfake’u wykorzystywanego w różnych celach, nie tylko politycznych. Raporty, takie jak opracowanie DeepTrace, wskazują na rosnącą liczbę materiałów wykorzystujących tę technologię, i podkreślają konieczność rozwijania metod i technik umożliwiających skuteczne rozróżnianie i zwalczanie tego rodzaju manipulacji.

Technologia deepfake, wykorzystując wspólne cechy twarzy, pozwala na manipulację wyglądem danej osoby w produkcjach jak filmy deepfake, co przy wyborach samorządowych, prezydenckich i innych może stanowić potencjalne zagrożenia dla uczciwości procesu wyborczego. Rozwój technologii deepfake’u, będący podstawą do tworzenia coraz bardziej przekonujących fałszywych wiadomości, zmusza do refleksji nad wykorzystaniem tej techniki w różnych celach, nie zawsze etycznych. W kontekście wyborów samorządowych za pomocą technologii deepfake można wpływać na opinię publiczną, np. można podważać zaufanie do autentyczności publikowanych materiałów.

Tworzenie fałszywych treści z pomocą technologii deepfake stało się dużym wyzwaniem dla społeczeństwa, wpływającym na opinię publiczną i potencjalnie na wyniki wyborów. Zgodnie z rozwojem technologii popartym sztuczną inteligencją materiały, w ramach których to, jak wygląda dana osoba, mogą zostać zmienione, są coraz częściej wykorzystywane na platformach online, budząc obawy co do wiarygodności informacji. Ta technika, wykorzystywana dla wspólnych cech twarzy, pozwala na stworzenie niezwykle realistycznych i trudnych do odróżnienia od prawdziwych materiałów.

Uniwersalny akt o usługach cyfrowych – czy to wystarczy?

Akt o usługach cyfrowych (DSA), określony mianem „konstytucji internetu”, ma na celu uregulowanie działalności cyfrowej w Unii Europejskiej poprzez wprowadzenie szeregu przepisów dla platform internetowych. Chociaż jego głównym celem jest stworzenie bezpieczniejszego środowiska online, istnieje obawa, że nowe regulacje mogą nie być wystarczająco skuteczne w walce z dezinformacją.

Profesor Johnson wskazał, że brak jednoznacznych kryteriów definiujących szkodliwe treści oraz skoncentrowanie się na dużych platformach może mocno ograniczyć efektywność DSA. Dlaczego? Ponieważ z badań wynika, że mniejsze platformy bywają pomijane w tych rozważaniach, pomimo że odgrywają zasadniczą rolę w rozpowszechnianiu deepfake’ów.

Problemu nie wolno bagatelizować

Eksperci apelują o realistyczne podejście do problemu dezinformacji. Zamiast dążyć do niemożliwego celu, jakim jest całkowite wyeliminowanie fałszywych treści, należy skupić się na strategiach minimalizujących ich wpływ. Zdaniem Johnsona w przyszłości czeka nas ekspansja działań „złych aktorów”, zwłaszcza w kontekście zbliżających się wyborów. Tak więc, wykorzystanie AI do tworzenia deepfake’ów i szerzenia fałszywych treści stanie się codziennością.

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *