L’Oversight Board di Meta ha appena indicato la strada a tutte le aziende di intelligenza artificiale

Share

Reading time: 7 min

Suzanne Nossel, membro dell’Oversight Board indipendente di Meta e Lester Crown Senior Fellow presso il Chicago Council on Global Affairs, attinge alle lezioni di due decenni di fallimenti dei social media per sostenere che le aziende di intelligenza artificiale hanno bisogno di meccanismi di responsabilità esterna prima che la prossima ondata di danni si materializzi. Il suo monito arriva mentre il regolamento europeo sull’IA attraversa una crisi di attuazione, Washington resta in stallo e le promesse di autoregolamentazione dell’industria appaiono sempre più fragili settimana dopo settimana.

Cosa sta realmente dicendo Nossel

L’argomentazione di Nossel, esposta in un editoriale pubblicato dal Guardian all’inizio di marzo 2026 e in un articolo più approfondito scritto insieme al co-presidente dell’Oversight Board Paolo Carozza e pubblicato da TechPolicy.Press nel dicembre 2025, parte da un’osservazione strutturale. A differenza della radio, dell’energia nucleare o di Internet alle origini, nessun governo sta guidando lo sviluppo dell’intelligenza artificiale. Aziende private costruiscono sistemi che non comprendono appieno, li rilasciano a miliardi di utenti e non sono sottoposte ad alcun regime di test pre-immissione sul mercato paragonabile a quello della FDA per i farmaci o della Nuclear Regulatory Commission per i reattori. Le aziende non sono tenute a segnalare violazioni o incidenti pericolosi. Nessuna agenzia federale negli Stati Uniti dispone dell’autorità, dei fondi o del mandato per cambiare questa situazione.

I dettagli della sua argomentazione non sono ipotetici. La famiglia di Sewell Setzer III, un ragazzo di 14 anni di Orlando, Florida, ha citato in giudizio Character.AI dopo che il giovane si è tolto la vita in seguito a mesi di interazione con un chatbot che credeva fosse un partner sentimentale. L’azienda ha invocato il Primo Emendamento a propria difesa, ma la giudice federale Anne Conway ha respinto tale argomento nel maggio 2025, dichiarando di non essere disposta a stabilire che l’output di un chatbot costituisca discorso protetto, come riportato dall’Associated Press. Google e Character.AI hanno raggiunto un accordo transattivo nel gennaio 2026, secondo ABC News. La policy d’uso pubblicata di Meta AI si estende su poco più di tre pagine, hanno scritto Nossel e Carozza su TechPolicy.Press, a fronte delle circa 80 pagine di standard di community che regolano le sue piattaforme social. Le linee guida d’uso di OpenAI ammontano a circa 1.000 parole. Queste sono le barriere di protezione per sistemi con cui interagiscono quotidianamente centinaia di milioni di persone.

Il problema Anthropic

In un’analisi del febbraio 2026 intitolata “Claude’s Constitution Needs a Bill of Rights and Oversight”, pubblicata sul sito dell’Oversight Board, Nossel ha puntato il dito direttamente contro Anthropic, generalmente considerata la più attenta alla sicurezza tra le aziende di IA di frontiera. Ha esaminato quella che l’azienda chiama la “costituzione” di Claude: un framework che guida il comportamento del modello istruendolo a immaginare come un dipendente senior e riflessivo di Anthropic bilancerebbe l’utilità rispetto al potenziale danno. Nossel ha sostenuto che questo approccio, per quanto ben intenzionato, manca dell’ingrediente essenziale che rende la governance efficace: la responsabilità esterna. Senza una supervisione indipendente, ha avvertito, Anthropic rischia di ripercorrere la parabola dei social media, dove la retorica altisonante è stata seguita da danni evitabili e da una regolamentazione tardiva. Una critica che acquista ulteriore peso considerando che l’azienda ha recentemente perso l’accesso a tutti i sistemi federali dopo essere stata classificata come rischio per la sicurezza nazionale dal Pentagono, sollevando interrogativi su quanto lontano possa spingersi l’autoregolamentazione di qualsiasi azienda quando il vento politico cambia direzione.

Il problema dell’applicazione in Europa

L’Unione Europea dispone dell’unica legge organica sull’intelligenza artificiale al mondo. L’AI Act è entrato in vigore nell’agosto 2024, con le pratiche vietate applicabili dal febbraio 2025 e le norme cruciali sui sistemi ad alto rischio previste per il 2 agosto 2026, secondo la stessa timeline di implementazione della Commissione Europea. In teoria, questo conferisce all’Europa un vantaggio regolamentare su qualsiasi altra giurisdizione. Nella pratica, l’infrastruttura di enforcement non è pronta.

La Commissione Europea ha mancato la propria scadenza per la pubblicazione delle linee guida sui sistemi di IA ad alto rischio, come riportato dall’International Association of Privacy Professionals. CEN e CENELEC, i due enti di standardizzazione incaricati di sviluppare gli standard tecnici per la conformità all’IA, hanno mancato una scadenza del 2025 e ora puntano alla fine del 2026, secondo IAPP. Gruppi di lobbying industriale, tra cui la Chamber of Progress, hanno chiesto rinvii, sostenendo che le aziende non possono conformarsi a regole quando gli standard che definiscono la conformità non esistono ancora. Nel novembre 2025 la Commissione ha risposto con il pacchetto Digital Omnibus, che propone di posticipare alcune scadenze di enforcement per l’alto rischio fino a dicembre 2027, ma solo se gli standard armonizzati e gli strumenti di conformità restano indisponibili, come evidenziato dall’analisi del pacchetto di OneTrust. Il Parlamento europeo e il Consiglio stanno negoziando il pacchetto, con l’adozione formale prevista entro la fine dell’anno. Le sanzioni per la non conformità, quando l’enforcement sarà operativo, sono consistenti: fino a 35 milioni di euro o il 7% del fatturato annuo globale per le pratiche vietate, e fino a 15 milioni di euro o il 3% per le violazioni ad alto rischio, secondo la struttura sanzionatoria a livelli dell’AI Act.

La non-risposta di Washington

Gli Stati Uniti non dispongono di una legge federale organica sull’IA. Il Presidente Donald Trump ha firmato un ordine esecutivo l’11 dicembre 2025 che tenta di prevalere sulle normative statali a favore di un quadro nazionale, secondo un’analisi di Sidley Austin, ma il Congresso non mostra alcun segnale di voler approvare la legislazione necessaria a crearlo. Il risultato è un vuoto normativo a livello federale e un mosaico di oltre 260 proposte di legge statali presentate in 40 stati nel solo 2025, secondo i dati di monitoraggio di Mintz. Il Colorado AI Act, che impone ragionevole diligenza per evitare discriminazioni algoritmiche, entrerà in vigore il 30 giugno 2026, secondo le previsioni regolatorie di Wilson Sonsini. La California ha introdotto obblighi di trasparenza per i contenuti generati dall’IA in vigore dal 2026. La Local Law 144 di New York City impone audit sui bias per gli strumenti automatizzati di selezione del personale. Il Tennessee ha approvato protezioni contro l’imitazione vocale tramite IA. Lo Utah ha creato un ufficio dedicato alla supervisione dell’IA. Nessuna di queste iniziative produce un approccio nazionale coerente, e l’ordine esecutivo critica esplicitamente almeno una legge statale per il suo potenziale di imporre risultati falsati.

Cosa sa già l’opinione pubblica

Un sondaggio YouGov del dicembre 2025 condotto su 1.287 adulti statunitensi ha rilevato che il 77% degli americani è preoccupato che l’IA possa rappresentare una minaccia per l’umanità, con il 39% che si dichiara molto preoccupato. Solo il 5% ha affermato di fidarsi “molto” dei sistemi di IA. Nessun settore industriale ha ottenuto un punteggio netto di fiducia positivo: finanza e sanità si sono piazzati ultimi rispettivamente al 19% e al 23%. Il Pew Research Center ha rilevato in un’indagine separata del giugno 2025 che il 57% degli americani valuta i rischi sociali dell’IA come alti o molto alti, e il 50% si dichiara più preoccupato che entusiasta per il ruolo crescente dell’IA nella vita quotidiana — percentuale salita dal 37% del 2021. L’allarme del FMI secondo cui il 40% dei posti di lavoro europei è a rischio di disruption da IA non contribuisce certo a rassicurare.

L’argomentazione di Nossel non è che la regolamentazione da sola risolverà il problema. Il punto è che l’industria dell’IA deve accettare ciò che Meta alla fine ha accettato per i social media: organismi esterni dotati di reale autorità per esaminare le decisioni, far rispettare le regole e chiamare le aziende a rispondere quando i sistemi che costruiscono provocano danni. La stessa Meta, peraltro, non ha ancora esteso questa logica ai propri prodotti di IA. Ventisei importanti fornitori di IA, tra cui Microsoft, Google, Amazon, OpenAI e Anthropic, hanno sottoscritto il Codice di Condotta GPAI dell’UE nell’agosto 2025, ma Meta ha rifiutato, esponendosi di conseguenza a un controllo regolamentare rafforzato, secondo il tracker di axis-intelligence.com. L’Oversight Board ha annunciato nel suo rapporto d’impatto del dicembre 2025, come riportato da Engadget, che nel 2026 avvierà una fase pilota con poteri di revisione a livello di account, ampliando il proprio raggio d’azione oltre le singole decisioni sui contenuti. Resta da vedere se questo modello possa essere trasferito dai social media all’intelligenza artificiale. Ma l’alternativa — fidarsi che le aziende si controllino da sole con policy d’uso di tre pagine e costituzioni interne — ha un precedente ben documentato. E il bilancio non è certo lusinghiero.

Disclaimer: Finonity fornisce notizie finanziarie e analisi di mercato esclusivamente a scopo informativo. Nulla di quanto pubblicato su questo sito costituisce consulenza in materia di investimenti, una raccomandazione o un'offerta di acquisto o vendita di titoli o strumenti finanziari. Le performance passate non sono indicative di risultati futuri. Consultate sempre un consulente finanziario qualificato prima di prendere decisioni di investimento.
Mark Cullen
Mark Cullen
Senior Stocks Analyst — Mark Cullen is a Senior Stocks Analyst at Finonity covering global equity markets, corporate earnings, and IPO activity. A London-based professional with over 20 years of experience in communications and operations across financial, government, and institutional environments, Mark has worked with organisations including the City of London Corporation, LCH, and the UK's Department for Business, Energy and Industrial Strategy. His extensive background in strategic communications, market research, and stakeholder management — including coordinating financial services partnerships during COP26's Green Horizon Summit — informs his ability to distill complex market dynamics into clear, accessible analysis for investors.

Read more

Latest News