Ta strona zapisuje w Twoim urządzeniu krótkie informacje tekstowe zwane plikami cookies (ciasteczkami). Są one wykorzystywane do zapisywania indywidualnych preferencji użytkownika, umożliwiają logowanie się do serwisu, pomagają w zbieraniu statystyk Twojej aktywności na stronie. W każdej chwili możesz zablokować lub ograniczyć umieszczanie plików cookies (ciasteczek) w Twoim urządzeniu zmieniając ustawienia przeglądarki internetowej. Ustawienie lub pozostawienie ustawienia przeglądarki na akceptację cookies (ciasteczek) oznacza wyrażenie przez Ciebie świadomej zgody na takie praktyki.

OK, rozumiem i akceptuję
Komisje IMCO i LIBE przyjmują akt w sprawie sztucznej inteligencji


Strasburg, 11 maja 2023.

Aby zapewnić rozwój sztucznej inteligencji (AI) w Europie, który będzie oparty na podejściu humanistycznym i etycznym, eurodeputowani zatwierdzili nowe zasady przejrzystości i zarządzania ryzykiem dla systemów AI.

Komisja Rynku Wewnętrznego i Komisja Wolności Obywatelskich przyjęły projekt mandatu negocjacyjnego w sprawie pierwszych w historii zasad dotyczących sztucznej inteligencji. Za przyjęciem mandatu zagłosowało 84 eurodeputowanych, przeciwko było 7, a wstrzymało się od głosu 12. W swoich poprawkach do projektu Komisji Europejskiej, eurodeputowani dążą do zapewnienia, by systemy AI były nadzorowane przez ludzi,  bezpieczne, przejrzyste, możliwe do śledzenia, nienaruszające równości oraz przyjazne dla środowiska. Chcą także ustanowienia jednolitej definicji dla AI, która będzie neutralna technologicznie, aby mogła dotyczyć zarówno obecnych, jak i przyszłych systemów AI.

Systemy sztucznej inteligencji powinny być godne zaufania i zorientowane na wsparcie człowieka, a ich projektowanie, trenowanie i wprowadzanie na rynek powinno odbywać się transparentnie i w oparciu o rzetelną ocenę ryzyka dla bezpieczeństwa, zdrowia czy praw człowieka.

Podejście oparte na ryzyku - Zakazane praktyki AI

Zasady te opierają się na podejściu opartym na ryzyku i wprowadzają obowiązki dla dostawców i użytkowników w zależności od poziomu ryzyka, jakie system AI może generować. Systemy AI z nieakceptowalnym poziomem ryzyka dla bezpieczeństwa ludzi będą surowo zabronione, w tym systemy, które wykorzystują techniki podprogowe lub celowo manipulacyjne, wykorzystują słabości ludzi lub są używane do scoringu społecznego (klasyfikującego ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, cech osobistych).