Zagrożenia

 Zagrożenia

    Niewystarczające wykorzystanie możliwości sztucznej inteligencji jest uważane za duże zagrożenie: dla UE, stracone szanse mogą oznaczać słabą realizację ważnych programów, takich jak Zielony Ład; utratę przewagi konkurencyjnej nad innymi częściami świata; stagnację gospodarczą i gorsze możliwości dla obywateli. Niewystarczające wykorzystanie może wynikać z braku zaufania społeczeństwa i biznesu do sztucznej inteligencji, słabej infrastruktury, braku inicjatywy, niskich inwestycji lub, ponieważ uczenie maszynowe zależy od danych, z fragmentarycznych rynków cyfrowych. Nadmierne wykorzystanie może być również problematyczne: inwestowanie w zastosowania sztucznej inteligencji, które okażą się nieprzydatne, lub stosowanie sztucznej inteligencji do zadań, do których się nie nadaje, np. do wyjaśniania złożonych problemów społecznych. 

     Ważnym wyzwaniem jest ustalenie, kto jest odpowiedzialny za szkody spowodowane przez urządzenie lub usługę sterowane przez sztuczną inteligencję: na przykład w wypadku z udziałem samosterującego samochodu, czy szkoda powinna być pokryta przez właściciela, producenta samochodu czy programistę? Gdyby producent był całkowicie zwolniony od odpowiedzialności, mogłoby nie być zachęty do dostarczania dobrego produktu lub usługi, co mogłoby zaszkodzić zaufaniu ludzi do technologii; ale przepisy mogą być również zbyt surowe i hamować innowacje.

     Sztuczna inteligencja może poważnie wpłynąć na prawo do prywatności i ochronę danych - może być na przykład użyta w sprzęcie do rozpoznawania twarzy lub do śledzenia i profilowania osób w internecie. Ponadto sztuczna inteligencja umożliwia łączenie informacji, które osoba podała, w nowe dane, co może prowadzić do wyników, których dana osoba nie spodziewałaby się. Może również zagrażać demokracji - sztuczną inteligencję obwiniano już o tworzenie tzw. 'baniek informacyjnych' online. Takie bańki są oparte na wcześniejszych zachowaniach danej osoby w internecie i wyświetlają tylko treści, które mogą spodobać się danej osobie, zamiast wspierać pluralistyczną, równo dostępną i otwartą debatę publiczną. Sztuczną inteligencję można też używać do tworzenia niezwykle realistycznych fałszywych filmów, nagrań dźwiękowych i obrazów - za pomocą techniki znanej jako deepfake - które mogą stanowić ryzyko finansowe, szkodzić reputacji i utrudniać podejmowanie decyzji. Wszystko to może prowadzić do podzialów i polaryzacji w sferze publicznej oraz manipulowania wyborami. Sztuczna inteligencja może również zagrażać wolności zgromadzeń i protestu, ponieważ dzięki niej można śledzić i profilować osoby powiązane z określonymi przekonaniami lub działaniami.

     Nierówności w dostępie do informacji mogą być wykorzystywane. Na przykład na podstawie zachowania danej osoby w internecie lub innych danych i bez jej wiedzy, sprzedawca internetowy może wykorzystać sztuczną inteligencję do przewidywania, ile ta osoba jest skłonna zapłacić, a kampania polityczna dostosować dla niej swój przekaz. Inną kwestią związaną z przejrzystością jest to, że czasami dla może być niejasne dla ludzi, czy wchodzą w interakcję ze sztuczną inteligencją, czy z osobą.

Komentarze