Opinia | sztuczna inteligencja decyduje kim jesteś

7

Kiedy ubiegasz się o pracę, masz świetne CV, ale nikt do ciebie nie dzwoni. Być może algorytm AI, który sprawdza kandydatów, zdecydował, że jesteś zbyt ryzykowny. Nie wyjaśnia dlaczego i nie można polemizować z jego wnioskami. Nie oznacza to, że złamałeś zasady: mogłeś zachować cyfrową prywatność, unikać omawiania opinii w Internecie i nie udostępniać danych osobowych. Ale sztuczna inteligencja, analizując zachowanie innych, przewiduje, jak będziesz się zachowywać w pracy, nawet jeśli nigdy czegoś takiego nie robiłeś.

To tylko jeden przykład tego, jak żyjemy w świecie, w którym algorytmy podejmują za nas decyzje. Banki wykorzystują sztuczną inteligencję do udzielania kredytów, analizując wcześniejsze dane kredytobiorców w celu przewidywania niewypłacalności. Departamenty policji wprowadzają dane dotyczące przestępstw do algorytmów, które określają, na czym należy skupić uwagę. Sieci społecznościowe korzystają z kliknięć użytkowników, aby zdecydować, jakie wiadomości (lub dezinformacje) pokazać wszystkim.

Kluczowy punkt: sztuczna inteligencja nie zna Twojej przeszłości. Po prostu analizuje zachowanie osób podobnych do Ciebie. Jeśli nie zrobiłeś nic podejrzanego, ale Twój profil przypomina tych, którzy mieli problemy w przeszłości, algorytm może „przewidzieć” podobne zachowanie. To sprawia, że ​​prywatność jest mniej skuteczną ochroną.

Dlatego właśnie zbiorowa kontrola nad danymi staje się kluczowa. Nie możemy już polegać na prywatności osobistej – sztuczna inteligencja jest już zbyt głęboko wpleciona w nasze życie. Musimy wspólnie zdecydować, w jaki sposób nasze dane będą wykorzystywane i jakie będą tego konsekwencje.

Wniosek: W dobie sztucznej inteligencji prywatność nie uniemożliwia prognozowania. Aby się chronić, musimy współpracować, aby określić, jak algorytmy na nas wpływają i co zrobić, jeśli nam to zaszkodzi.