Polska Onuca
831
Ustawa UE o sztucznej inteligencji została przyjęta – teraz pozostaje czekanie.
Trzy gałęzie Unii Europejskiej wstępnie zgodziły się na przełomowe rozporządzenie w sprawie sztucznej inteligencji, torując blokowi gospodarczemu drogę do zakazania niektórych zastosowań tej technologii i zażądania przejrzystości od dostawców. Jednak pomimo ostrzeżeń niektórych światowych przywódców zmiany, których …Więcej
Ustawa UE o sztucznej inteligencji została przyjęta – teraz pozostaje czekanie.
Trzy gałęzie Unii Europejskiej wstępnie zgodziły się na przełomowe rozporządzenie w sprawie sztucznej inteligencji, torując blokowi gospodarczemu drogę do zakazania niektórych zastosowań tej technologii i zażądania przejrzystości od dostawców. Jednak pomimo ostrzeżeń niektórych światowych przywódców zmiany, których będzie to wymagać od firm zajmujących się sztuczną inteligencją, pozostają niejasne – i potencjalnie odległe.
Ustawa o sztucznej inteligencji, zaproponowana po raz pierwszy w 2021 r., nadal nie została w pełni zatwierdzona. Gorąco debatowane kompromisy podjęte w ostatniej chwili złagodziły niektóre z najsurowszych zagrożeń regulacyjnych. A egzekwowanie przepisów prawdopodobnie nie rozpocznie się przez lata. „W bardzo krótkiej perspektywie kompromis w sprawie unijnej ustawy o sztucznej inteligencji nie będzie miała dużego bezpośredniego wpływu na uznanych projektantów sztucznej inteligencji z siedzibą w USA, ponieważ zgodnie z jego warunkami prawdopodobnie zacznie obowiązywać dopiero w 2025 r.” – mówi Paul Barrett , zastępca dyrektora Centrum Biznesu i Praw Człowieka na Uniwersytecie Nowojorskim Stern.
Na razie Barrett twierdzi, że główni gracze zajmujący się sztuczną inteligencją, tacy jak OpenAI, Microsoft, Google i Meta, prawdopodobnie będą nadal walczyć o dominację, szczególnie w obliczu niepewności regulacyjnej w USA. Ustawa o sztucznej inteligencji miała swój początek przed eksplozją narzędzi AI ogólnego przeznaczenia (GPAI), takich jak model wielkojęzykowy GPT-4 OpenAI, a ich uregulowanie stało się niezwykle skomplikowanym punktem spornym w dyskusjach prowadzonych w ostatniej chwili. Ustawa dzieli swoje przepisy ze względu na poziom ryzyka, jaki system sztucznej inteligencji stwarza dla społeczeństwa lub, jak stwierdziła UE w oświadczeniu, „im wyższe ryzyko, tym bardziej rygorystyczne zasady”.
Jednak niektóre państwa członkowskie nabrały obaw, że taka rygorystyczność może sprawić, że UE stanie się nieatrakcyjnym rynkiem dla sztucznej inteligencji. Podczas negocjacji Francja, Niemcy i Włochy lobbowały na rzecz złagodzenia ograniczeń nałożonych na GPAI. Wygrali kompromisy, w tym ograniczenie systemów, które można uznać za „wysokie ryzyko”, które wówczas podlegałyby najbardziej rygorystycznym przepisom. Zamiast klasyfikować wszystkie GPAI jako produkty wysokiego ryzyka, wprowadzony zostanie dwupoziomowy system i wyjątki od organów ścigania w przypadku całkowicie zabronionych zastosowań sztucznej inteligencji, takich jak zdalna identyfikacja biometryczna.
To wciąż nie zadowoliło wszystkich krytyków. Prezydent Francji Emmanuel Macron zaatakował przepisy, twierdząc, że ustawa o sztucznej inteligencji tworzy trudne otoczenie regulacyjne, które utrudnia innowacje. Barrett powiedział, że dla niektórych nowych europejskich firm zajmujących się sztuczną inteligencją pozyskanie kapitału przy obecnych zasadach może być trudne, co daje przewagę firmom amerykańskim. Firmy spoza Europy mogą nawet zdecydować się na uniknięcie zakładania sklepu w regionie lub zablokowanie dostępu do platform, aby nie zostać ukaranym karą za łamanie zasad – jest to potencjalne ryzyko, przed którym stoi Europa również w branży technologii innych niż sztuczna inteligencja, zgodnie z przepisami jak ustawa o rynkach cyfrowych i ustawa o usługach cyfrowych.
theverge.com

The EU AI Act passed — now comes the waiting

The European Union’s three branches provisionally agreed on its landmark AI regulation, paving the way for the economic bloc to prohibit certain uses of …