Wyszukaj po identyfikatorze keyboard_arrow_down
Wyszukiwanie po identyfikatorze Zamknij close
ZAMKNIJ close
account_circle Jesteś zalogowany jako:
ZAMKNIJ close
Powiadomienia
keyboard_arrow_up keyboard_arrow_down znajdź
removeA addA insert_drive_fileWEksportuj printDrukuj assignment add Do schowka
comment

Artykuł

Data publikacji: 2024-04-09

Algorytmy rekomendujące treści a prawo do prywatności

Wprowadzanie opłat za szanowanie prawa powoduje, że to ostatnie traci sens. Tak może się stać, jeśli platformy wprowadzą abonamenty na profile bez reklam

Wielu z nas pamięta, jak różnego rodzaju media społecznościowe pozwoliły odnowić kontakt z przyjaciółmi ze szkolnej ławki. Dawno jednak przestało tu chodzić o sentymenty. Media społecznościowe to biznes, w którym liczy się maksymalizacja zysku. Algorytmy sztucznej inteligencji śledzą naszą aktywność i podsuwają treści, które mogą nas zainteresować, aby wydłużyć czas spędzony przed ekranem.

Nie zawsze jednak są one dla nas odpowiednie. Nie chodzi o nietrafione podpowiedzi, lecz o treści, które szkodzą – potęgują nasze lęki lub ugruntowują błędny obraz otaczającego świata. Działa tutaj „efekt dostępności” – tak psycholodzy nazywają zjawisko, w którym budujemy swoje przekonania na podstawie częstotliwości, z jaką spotykamy się z daną informacją. To wszystko może powodować lub nasilać traumę czy utrudniać wyjście z nałogu. Nowe prawo przyjęte w Unii Europejskiej daje możliwość wpływania na to, co chcemy oglądać, a co uznajemy za szkodliwe. Może to jednak przynieść przeciwny efekt. Jak się okazuje, zasada Machiavellego – cel uświęca środki – odnosi się również do sztucznej inteligencji. Jest ona w stanie wywieść w pole nasze – odpowiedzialne za abstrakcyjne myślenie – płaty przedczołowe mózgu. Efektywnie manipuluje atawistycznymi ośrodkami strachu, popędu i agresji. Celem algorytmu jest wydłużenie czasu spędzonego przed ekranem, a nie dbanie o nasz dobrostan psychiczny.

close POTRZEBUJESZ POMOCY?
Konsultanci pracują od poniedziałku do piątku w godzinach 8:00 - 17:00