Strasburg, 11 maja 2023.
Aby zapewnić rozwój sztucznej inteligencji (AI) w Europie, który będzie oparty na podejściu humanistycznym i etycznym, eurodeputowani zatwierdzili nowe zasady przejrzystości i zarządzania ryzykiem dla systemów AI.
Komisja Rynku Wewnętrznego i Komisja Wolności Obywatelskich przyjęły projekt mandatu negocjacyjnego w sprawie pierwszych w historii zasad dotyczących sztucznej inteligencji. Za przyjęciem mandatu zagłosowało 84 eurodeputowanych, przeciwko było 7, a wstrzymało się od głosu 12. W swoich poprawkach do projektu Komisji Europejskiej, eurodeputowani dążą do zapewnienia, by systemy AI były nadzorowane przez ludzi, bezpieczne, przejrzyste, możliwe do śledzenia, nienaruszające równości oraz przyjazne dla środowiska. Chcą także ustanowienia jednolitej definicji dla AI, która będzie neutralna technologicznie, aby mogła dotyczyć zarówno obecnych, jak i przyszłych systemów AI.
Systemy sztucznej inteligencji powinny być godne zaufania i zorientowane na wsparcie człowieka, a ich projektowanie, trenowanie i wprowadzanie na rynek powinno odbywać się transparentnie i w oparciu o rzetelną ocenę ryzyka dla bezpieczeństwa, zdrowia czy praw człowieka.
Podejście oparte na ryzyku - Zakazane praktyki AI
Zasady te opierają się na podejściu opartym na ryzyku i wprowadzają obowiązki dla dostawców i użytkowników w zależności od poziomu ryzyka, jakie system AI może generować. Systemy AI z nieakceptowalnym poziomem ryzyka dla bezpieczeństwa ludzi będą surowo zabronione, w tym systemy, które wykorzystują techniki podprogowe lub celowo manipulacyjne, wykorzystują słabości ludzi lub są używane do scoringu społecznego (klasyfikującego ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, cech osobistych).