Skip to main content

Proponowany akt o sztucznej inteligencji Unii Europejskiej

Regulacja, która jest obecnie przedmiotem debaty i poprawek, opiera się na różnych poziomach ryzyka związanych z używaniem sztucznej inteligencji (AI).

Regulacja, która jest obecnie przedmiotem debaty i poprawek, opiera się na różnych poziomach ryzyka związanych z używaniem sztucznej inteligencji (AI).

Standardy opierają się na podejściu opartym na ryzyku i nakładają obowiązki na dostawców i użytkowników w zależności od poziomu ryzyka, jakie AI może generować. Klasyfikacja obszarów wysokiego ryzyka została rozszerzona o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych i środowiska. Systemy sztucznej inteligencji mające na celu wpływanie na wyborców w kampaniach politycznych oraz systemy rekomendacji używane przez platformy mediów społecznościowych również zostały dodane do listy wysokiego ryzyka. Ta proponowana legislacja jest nadal w fazie rozwoju i ewoluuje w wyniku konsultacji.

Modele generatywne powinny spełniać dodatkowe wymagania dotyczące przejrzystości, w tym, ale nie tylko, ujawnianie, że treść została wygenerowana przez algorytm AI, projektowanie modelu w celu zapobiegania generowaniu nielegalnych treści oraz publikowanie podsumowań danych objętych prawem autorskim użytych do szkolenia.

Proponowane nowe prawo promuje regulacyjne piaskownice (kontrolowane środowiska) ustanowione przez organy publiczne do testowania AI przed jej wdrożeniem, a także wyjątki dla działań badawczych i komponentów AI dostarczanych na podstawie licencji open-source.

Propozycje obejmują wzmocnienie prawa obywateli do składania skarg dotyczących systemów AI oraz otrzymywania wyjaśnień dotyczących decyzji opartych na systemach AI wysokiego ryzyka, które mają znaczący wpływ na ich prawa.

Jak organizacje powinny reagować na akt UE dotyczący sztucznej inteligencji?

Organizacje będą musiały ocenić wpływ proponowanego Aktu AI na swoje przedsiębiorstwo i model biznesowy, identyfikując, gdzie potrzebne są zmiany i gdzie należy zwrócić większą uwagę na obecne procesy.

Zaufani doradcy mogą pomóc organizacjom zrozumieć, jak ten akt może być stosowany w ich istniejącej strukturze poprzez:

  1. Pomoc organizacjom w identyfikacji i ocenie potencjalnych ryzyk związanych z ich aplikacjami AI, różnicując między ryzykiem nieakceptowalnym, wysokim oraz niskim lub minimalnym. Następnie można wdrożyć strategie mające na celu złagodzenie tych ryzyk. 
  2. Określenie, jak spełnić konkretne zasady i wymagania dotyczące systemów AI, takie jak obowiązki przejrzystości dla systemów, które (i) wchodzą w interakcje z ludźmi, (ii) są używane do wykrywania emocji lub określania przynależności do kategorii społecznych na podstawie danych biometrycznych, lub (iii) generują lub manipulują treściami („deep fakes”).
  3. Identyfikacja łańcucha wartości AI (w tym importerów, dystrybutorów, przedstawicieli upoważnionych) i jego obowiązków.

Kompleksowy plan, który obejmuje wszystkie nowe i nadchodzące przepisy objęte strategią cyfrową UE, może stworzyć możliwości, a także złagodzić ryzyko. Przeczytaj więcej o wpływie Aktu o Zarządzaniu Danymi.

Zapisz się na serię i bądź na bieżąco

To dopiero drugi odcinek naszej wnikliwej i informacyjnej serii „Przygotowani na niespodziewane: seria dynamicznych ryzyk”. Jeśli chcesz być powiadamiany, gdy dostępny będzie kolejny odcinek, kliknij tutaj.

Artykuł ma charakter informacyjny. Marsh nie składa żadnych oświadczeń ani gwarancji co do jego dokładności. Marsh nie ma obowiązku aktualizowania artykułu i nie ponosi odpowiedzialności wobec żadnej strony wynikającej z tego dokumentu lub jakiejkolwiek kwestii w nim zawartej. Jakiekolwiek oświadczenia dotyczące spraw aktuarialnych, podatkowych, księgowych, pracy lub prawnych opierają się wyłącznie na naszym doświadczeniu jako brokerów ubezpieczeniowych i doradców ds. ryzyka i nie powinny być traktowane jako porady aktuarialne, podatkowe, księgowe, pracy lub prawne, w których klienci powinni skonsultować się z własnymi doradcami zawodowymi. Jakakolwiek analiza i informacje są narażone na inherentną niepewność, a artykuł może być istotnie dotknięty, jeśli jakiekolwiek podstawowe założenia, warunki, informacje lub czynniki są niedokładne lub niekompletne lub powinny ulec zmianie. Chociaż Marsh może udzielać porad i rekomendacji, wszystkie decyzje dotyczące przyjętych środków są ostateczną odpowiedzialnością klienta.