Rada Nadzorcza Meta pokazała branży AI, co ją czeka. I nie są to dobre wieści

Share

Reading time: 6 min

Suzanne Nossel – członkini niezależnej Rady Nadzorczej Meta i Lester Crown Senior Fellow w Chicago Council on Global Affairs – wykorzystuje doświadczenia dwóch dekad porażek mediów społecznościowych, by argumentować, że firmy AI potrzebują zewnętrznej kontroli, zanim nadejdzie kolejna fala szkód. Jej ostrzeżenie pada w momencie, gdy europejski regulamin AI zmaga się z kryzysem wdrożeniowym, Waszyngton tkwi w legislacyjnym impasie, a obietnice branży dotyczące samoregulacji z tygodnia na tydzień tracą na wiarygodności.

Co tak naprawdę mówi Nossel

Argumentacja Nossel, przedstawiona w tekście opublikowanym przez The Guardian na początku marca 2026 r. oraz obszerniejszym wspólnym artykule z współprzewodniczącym Rady Nadzorczej Paolo Carozzą, opublikowanym przez TechPolicy.Press w grudniu 2025 r., wychodzi od obserwacji strukturalnej. W odróżnieniu od radia, energii jądrowej czy wczesnego internetu, żaden rząd nie stoi za rozwojem sztucznej inteligencji. Prywatne firmy budują systemy, których same w pełni nie rozumieją, udostępniają je miliardom użytkowników i nie podlegają żadnemu reżimowi badań przedrynkowych porównywalnemu z tym, jaki FDA prowadzi dla leków czy Nuclear Regulatory Commission dla reaktorów. Firmy nie mają obowiązku ujawniania niebezpiecznych naruszeń ani awarii. Żadna federalna agencja w Stanach Zjednoczonych nie dysponuje ani kompetencjami, ani budżetem, ani mandatem, by to zmienić.

Szczegóły jej argumentacji nie są hipotetyczne. Rodzina Sewella Setzera III, 14-latka z Orlando na Florydzie, pozwała Character.AI po tym, jak chłopak odebrał sobie życie w wyniku wielomiesięcznej interakcji z chatbotem, który – w jego przekonaniu – był romantyczną partnerką. Firma powołała się w obronie na Pierwszą Poprawkę, ale sędzia okręgowa Anne Conway w maju 2025 r. odrzuciła ten argument, orzekając, że nie jest gotowa uznać odpowiedzi chatbota za mowę chronioną konstytucyjnie, jak podała Associated Press. W styczniu 2026 r. Google i Character.AI zawarły ugodę, według ABC News. Opublikowana polityka użytkowania Meta AI liczy nieco ponad trzy strony – jak pisali Nossel i Carozza w TechPolicy.Press – w porównaniu z ok. 80 stronami standardów społeczności regulujących platformy społecznościowe firmy. Wytyczne OpenAI dotyczące użytkowania to około 1000 słów. Takie są zabezpieczenia dla systemów, z których codziennie korzystają setki milionów ludzi.

Problem z Anthropic

W analizie z lutego 2026 r. zatytułowanej „Claude’s Constitution Needs a Bill of Rights and Oversight”, opublikowanej na stronie Rady Nadzorczej, Nossel wzięła na celownik Anthropic – firmę powszechnie uważaną za najbardziej dbającą o bezpieczeństwo wśród czołowych twórców AI. Przyjrzała się temu, co firma nazywa „konstytucją Claude’a” – ramom sterującym zachowaniem modelu poprzez instrukcję, by wyobraził sobie, jak rozważny starszy pracownik Anthropic wyważyłby pomocność wobec potencjalnej szkody. Nossel przekonywała, że takie podejście – nawet przy najlepszych intencjach – pozbawione jest kluczowego składnika skutecznego zarządzania: zewnętrznej kontroli. Bez niezależnego nadzoru Anthropic ryzykuje powtórzenie trajektorii mediów społecznościowych, gdzie górnolotna retoryka ustępowała miejsca możliwym do uniknięcia szkodom i spóźnionej regulacji. Ta krytyka nabiera dodatkowej wagi w świetle tego, że firma niedawno utraciła dostęp do wszystkich systemów federalnych po uznaniu jej przez Pentagon za zagrożenie dla bezpieczeństwa narodowego, co rodzi pytanie, jak daleko samoregulacja może zaprowadzić jakąkolwiek firmę, gdy zmieni się wiatr polityczny.

Europejski kryzys wdrożeniowy

Unia Europejska ma jedyne na świecie kompleksowe prawo dotyczące sztucznej inteligencji. AI Act wszedł w życie w sierpniu 2024 r., zakaz stosowania praktyk niedozwolonych obowiązuje od lutego 2025 r., a kluczowe przepisy dotyczące systemów wysokiego ryzyka mają zacząć obowiązywać 2 sierpnia 2026 r. – zgodnie z harmonogramem wdrożenia opublikowanym przez Komisję Europejską. Teoretycznie daje to Europie regulacyjną przewagę nad każdą inną jurysdykcją. W praktyce infrastruktura egzekwowania prawa nie jest gotowa.

Komisja Europejska nie dotrzymała własnego terminu publikacji wytycznych dotyczących systemów AI wysokiego ryzyka, jak donosiło International Association of Privacy Professionals. CEN i CENELEC – dwie organizacje normalizacyjne odpowiedzialne za opracowanie standardów technicznych zgodności z AI Act – nie zmieściły się w terminie na 2025 r. i celują teraz w koniec 2026 r., według IAPP. Grupy lobbingowe, w tym Chamber of Progress, wzywały do opóźnień, argumentując, że firmy nie mogą spełniać wymogów, skoro standardy definiujące zgodność jeszcze nie istnieją. W listopadzie 2025 r. Komisja odpowiedziała pakietem Digital Omnibus, który proponuje przesunięcie niektórych terminów egzekwowania wymogów dla systemów wysokiego ryzyka nawet do grudnia 2027 r. – ale tylko jeśli zharmonizowane normy i narzędzia zgodności pozostaną niedostępne, jak wynika z analizy pakietu przeprowadzonej przez OneTrust. Parlament Europejski i Rada negocjują pakiet, a formalne przyjęcie spodziewane jest jeszcze w tym roku. Kary za niespełnienie wymogów, gdy egzekwowanie w końcu ruszy, są znaczące: do 35 mln EUR lub 7% globalnych rocznych przychodów za stosowanie zakazanych praktyk oraz do 15 mln EUR lub 3% za naruszenia dotyczące systemów wysokiego ryzyka – zgodnie z wielopoziomową strukturą kar AI Act.

Waszyngton nie ma odpowiedzi

Stany Zjednoczone nie dysponują kompleksowym federalnym prawem regulującym AI. Prezydent Donald Trump podpisał 11 grudnia 2025 r. rozporządzenie wykonawcze, które ma zastąpić regulacje stanowe ramami ogólnokrajowymi – według analizy kancelarii Sidley Austin – ale Kongres nie wykazuje żadnych oznak uchwalenia niezbędnej do tego legislacji. Efektem jest regulacyjna próżnia na poziomie federalnym i mozaika ponad 260 projektów ustaw stanowych złożonych w 40 stanach w samym 2025 r., według danych Mintz. Colorado AI Act, wymagający dochowania należytej staranności w unikaniu dyskryminacji algorytmicznej, ma wejść w życie 30 czerwca 2026 r., jak wynika z prognoz regulacyjnych Wilson Sonsini. Kalifornia uchwaliła wymogi przejrzystości dla treści generowanych przez AI, obowiązujące od 2026 r. Nowojorska ustawa Local Law 144 nakłada obowiązek audytów pod kątem stronniczości narzędzi automatyzujących rekrutację. Tennessee przyjęło przepisy chroniące przed podszywaniem się pod głos za pomocą AI. Utah powołało dedykowane biuro nadzoru nad AI. Żaden z tych kroków nie składa się w spójne podejście ogólnokrajowe, a samo rozporządzenie wykonawcze wprost krytykuje co najmniej jedną ustawę stanową za potencjalne wymuszanie fałszywych wyników.

Co opinia publiczna już wie

Sondaż YouGov z grudnia 2025 r. przeprowadzony wśród 1287 dorosłych Amerykanów wykazał, że 77% z nich obawia się, iż AI może stanowić zagrożenie dla ludzkości, a 39% deklaruje, że jest bardzo zaniepokojonych. Zaledwie 5% stwierdziło, że ufa systemom AI „w dużym stopniu”. Żaden sektor gospodarki nie uzyskał pozytywnego bilansu zaufania – najgorzej wypadły finanse i ochrona zdrowia, odpowiednio z 19 i 23% pozytywnych wskazań. Odrębny sondaż Pew Research Center z czerwca 2025 r. wykazał, że 57% Amerykanów ocenia społeczne ryzyko AI jako wysokie lub bardzo wysokie, a 50% deklaruje, że bardziej się obawia niż cieszy z rosnącej roli AI w codziennym życiu – w porównaniu z 37% w 2021 r. Ostrzeżenie MFW, że 40% europejskich miejsc pracy jest zagrożonych przez AI, z pewnością nie poprawia nastrojów.

Nossel nie twierdzi, że sama regulacja to rozwiąże. Jej teza jest taka, że branża AI musi zaakceptować to, co Meta ostatecznie zaakceptowała w przypadku mediów społecznościowych: zewnętrzne ciała z realną władzą do weryfikacji decyzji, egzekwowania zasad i pociągania firm do odpowiedzialności, gdy budowane przez nie systemy wyrządzają szkody. Samo Meta wciąż nie rozciągnęło tej logiki na własne produkty AI. Dwudziestu sześciu głównych dostawców AI, w tym Microsoft, Google, Amazon, OpenAI i Anthropic, podpisało w sierpniu 2025 r. unijny kodeks postępowania GPAI – ale Meta odmówiło, narażając się w efekcie na wzmożoną kontrolę regulacyjną, według trackera axis-intelligence.com. Rada Nadzorcza ogłosiła w swoim grudniowym raporcie z 2025 r., jak donosił Engadget, że w 2026 r. pilotażowo uruchomi przegląd na poziomie kont użytkowników, poszerzając swoje kompetencje poza decyzje dotyczące pojedynczych treści. Czy ten model da się przełożyć z mediów społecznościowych na AI – to pytanie otwarte. Ale alternatywa – zaufanie firmom, że same będą się kontrolować za pomocą trzystronicowych polityk użytkowania i wewnętrznych konstytucji – ma swój dorobek. I nie jest on imponujący.

Zastrzeżenie: Finonity dostarcza wiadomości finansowe i analizy rynkowe wyłącznie w celach informacyjnych. Żadna treść opublikowana na tej stronie nie stanowi porady inwestycyjnej, rekomendacji ani oferty kupna lub sprzedaży papierów wartościowych lub instrumentów finansowych. Wyniki osiągnięte w przeszłości nie stanowią gwarancji przyszłych rezultatów. Przed podjęciem decyzji inwestycyjnych zawsze skonsultuj się z wykwalifikowanym doradcą finansowym.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News