Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Big Tech sotto accusa: pressioni sulla Commissione Ue per ammorbidire il Codice sull’AI generale

Il Commissario europeo per le tecnologie dell'informazione alla presentazione del Piano d'azione per l'intelligenza artificiale nel continente.
Il Commissario europeo per le tecnologie dell'informazione alla presentazione del Piano d'azione per l'intelligenza artificiale nel continente. Diritti d'autore  Nicolas Landemard/EC/nicolas landemard
Diritti d'autore Nicolas Landemard/EC/nicolas landemard
Di Cynthia Kroet
Pubblicato il
Condividi questo articolo Commenti
Condividi questo articolo Close Button

Un’inchiesta di Corporate Europe Observatory e LobbyControl rivela che Big Tech ha influenzato la redazione del Codice di condotta sull’intelligenza artificiale generale dell’Ue, indebolendo le regole previste dalla futura legge sull’AI

PUBBLICITÀ

Le grandi aziende tecnologiche globali, tra cui Google, Microsoft, Meta, Amazon e OpenAI, avrebbero esercitato forti pressioni sulla Commissione europea per attenuare il Codice di condotta sull’intelligenza artificiale per scopi generali, uno strumento pensato per aiutare i fornitori di AI ad allinearsi alla futura legge dell’Unione Europea.

È quanto emerge da un rapporto congiunto pubblicato da Corporate Europe Observatory (Ceo) e LobbyControl, due organizzazioni impegnate nel monitoraggio delle attività di lobbying e trasparenza istituzionale.

Il documento denuncia come le Big Tech abbiano goduto di un accesso privilegiato durante il processo di redazione del Codice, influenzando direttamente i contenuti e indebolendo i requisiti inizialmente previsti per le tecnologie più avanzate. L’indagine, basata su interviste riservate e documenti interni, pone dubbi sulla reale equità e trasparenza del processo normativo europeo in uno dei settori più strategici del futuro digitale.

Workshop riservati e accesso limitato alla società civile

A partire da settembre, tredici esperti nominati dalla Commissione hanno avuto il compito di redigere il Codice, supportati da sessioni plenarie e workshop online. Ma secondo Ceo e LobbyControl, le grandi aziende tecnologiche hanno avuto accesso a canali privilegiati: un gruppo ristretto di 15 fornitori di modelli di AI ha partecipato a workshop dedicati con i capi dei gruppi di lavoro. Questi incontri esclusivi hanno coinvolto attivamente le maggiori piattaforme globali, che sono anche le stesse aziende che il Codice dovrebbe regolamentare.

Nel frattempo, editori, organizzazioni civiche, titolari di diritti e Pmi hanno partecipato con modalità marginali, potendo spesso solo inviare feedback tramite votazioni simboliche sulla piattaforma Slido. Un approccio che, secondo i critici, ha limitato la pluralità del confronto e lasciato la bozza normativa nelle mani di attori con enormi interessi economici.

Preoccupazioni per il copyright e accuse di deregolamentazione

Tra i gruppi più critici vi sono editori e detentori di diritti, preoccupati che il Codice, così come si sta delineando, possa entrare in conflitto con le leggi europee sul copyright, riducendo la tutela delle opere e delle licenze nel contesto dell’IA generativa.

Secondo Bram Vranken, ricercatore del Ceo, l’attenzione crescente della Commissione europea alla “semplificazione normativa” e alla “competitività” starebbe aprendo le porte a una deregolamentazione su misura per le esigenze delle Big Tech. Il Codice sarebbe solo la prima vittima di un approccio che mette l’innovazione economica al di sopra delle tutele pubbliche.

Interferenze internazionali e ritardi sulla tabella di marcia

Ad aumentare la pressione sul processo europeo è stata anche una lettera inviata dalla missione diplomatica statunitense presso l’Ue, in cui il governo Usa, sotto la guida repubblicana, ha criticato le nuove regole digitali europee accusandole di soffocare la crescita tecnologica e l’innovazione.

In questo contesto teso, l’adozione della versione finale del Codice, inizialmente prevista per inizio maggio 2025, potrebbe subire ritardi. Fonti interne confermano che il testo potrebbe essere posticipato a luglio o addirittura ad agosto, poco prima dell’entrata in vigore delle norme europee sull’IA generale.

Secondo quanto riportato in un’e-mail inviata dall’Ufficio AI della Commissione alle parti interessate, la pubblicazione del Codice e delle linee guida sull’AI generale è ora attesa tra maggio e giugno 2025, ma la versione definitiva potrebbe slittare ulteriormente.

Codice facoltativo, ma potenzialmente vincolante dal 2027

Al momento, il Codice è pensato come uno strumento di autoregolamentazione volontaria, ma la Commissione europea ha la facoltà di trasformarlo in un atto esecutivo vincolante, con piena applicabilità prevista per il 2027. Una possibilità che preoccupa ancora di più chi teme che la versione finale possa essere sbilanciata a favore dei colossi tecnologici, riducendo l’efficacia delle future norme europee sull’AI.

La Commissione, contattata per un commento, non ha ancora fornito dichiarazioni ufficiali.

Vai alle scorciatoie di accessibilità
Condividi questo articolo Commenti

Notizie correlate

Papa Francesco, le sue perplessità su social media e intelligenza artificiale

Tutto quello che c'è da sapere sui nuovi modelli di intelligenza artificiale Llama 4 di Meta

Cosa aspettarsi da Meta Connect 2025: gli occhiali che usano l'intelligenza artificiale