Di DANIELE GAMBETTA
Il settore industriale della cosiddetta intelligenza artificiale e i rapporti intorno alla sua regolamentazione si stanno rivelando sempre più come banco di prova dei contrasti economici e politici globali, oltre che essere una lente sull’impatto delle ideologie californiane nello sviluppo tecnologico.
Sullo scenario globale, l’utilizzo di tecnologie intelligenti in ambito bellico e la corsa al monopolio di microchip stanno guidando uno scontro tra USA e Cina che procede tra ban di esportazioni reciproche di schede grafiche e materiali primi. In mezzo a questo fuoco incrociato, nella fine dell’anno passato l’Unione Europea ha fatto il suo primo passo nello scacchiere dell’IA.
La notte tra l’8 e il 9 dicembre, dopo 36 ore di dibattito, i membri del Parlamento europeo hanno siglato l’accordo per la prima normativa internazionale in ambito di intelligenza artificiale, l’AI Act, formulata per regolamentare le applicazioni di questa tecnologia in modo responsabile e sicuro per la comunità.
La normativa si concentra su obiettivi di sicurezza, trasparenza e diritti umani, classificando i sistemi di IA in base a quattro categorie di rischio, ognuna con particolari implicazioni. Tra le principali applicazioni proibite sono inseriti il raccolta non mirata di immagini facciali, il riconoscimento automatico delle emozioni sul posto di lavoro e i sistemi di social scoring. Sui sistemi di identificazione biometrica in spazi pubblici il regolamento parla di possibili eccezioni per eventuali autorizzazioni, in caso di ricerca mirata di persone condannate per gravi reati o prevenzione di minacce terroristiche, e come molti attivisti hanno fatto notare, i dettagli della stesura finale del regolamento saranno fondamentali per capire quanto queste eccezioni aprano spazi di possibilità di controllo a governi e istituzioni, così come resta una zona grigia l’applicazione di queste norme nel caso del controllo sui flussi migratori. Altre normative riguardano l’obbligo di documentazione tecnica e rispetto del diritto d’autore sui materiali utilizzati nella generazione di modelli generativi.
Ma al di là delle specifiche legali del regolamento che è in fase di stesura finale, ad essere interessante può essere il confronto tra le parti in gioco che si è visto nei mesi e soprattutto nei giorni precedenti all’approvazione, quando nell’incontro tecnico dello scorso 10 novembre questo percorso ha subito una battuta d’arresto davanti all’opposizione congiunta di Francia, Germania e Italia, che si sono mostrate in disaccordo alla specifica regolamentazione dei modelli fondativi, ovvero quei modelli di base che permettono l’elaborazione dei dati nelle IA. I tre paesi sostengono che limitare questi modelli possa compromettere l’innovazione e la competitività rispetto ai concorrenti internazionali, Usa in primis, dove finora sono stati sviluppati i modelli che dominano il settore. L’intenzione dell’Ue è quella di limitare maggiormente le big tech statunitensi, ma alcuni paesi hanno visto in questo una limitazione ad una loro eventuale ingresso nella competizione con Silicon Valley.
Come riporta Euractiv, a spingere la Francia nel contrasto all’approvazione vi sarebbero le pressioni di Mistral, la start-up francese che in una trentina di giorni a giugno 2023 ha raccolto 105 milioni di euro in un round da finanziamento record. Dietro questo progetto vi sarebbero imprenditori con un passato in compagnie del calibro di Google, Meta e Iliad, sostenuti anche da Macron in persona nell’obiettivo di creare un competitor francofono ai modelli linguistici Usa. «L’ambizione di Mistral – ha commentato al blog Guerre di Rete la responsabile per gli affari europei di France Digitale – è di essere la OpenAI europea». Dietro alla posizione simile assunta dalla Germania vi sarebbel’azienda Aleph Alpha, mentre a fine ottobre a Roma si è tenuto il secondo trilaterale per la cooperazione industriale, al quale il ministro delle Imprese e del Made in Italy, Adolfo Urso, ha stretto accordi con Francia e Germania anche nello sviluppo di tecnologie IA.
«Abbiamo assistito a un’ampia attività di lobbying da parte delle Big Tech sull’AI Act, con innumerevoli incontri con gli eurodeputati e l’accesso ai più alti livelli del processo decisionale», ha detto a TechCrunch l’organizzazione no-profit per la trasparenza Corporate Europe Observatory. «Sebbene pubblicamente queste aziende abbiano chiesto di regolamentare l’Ia pericolosa, in realtà stanno spingendo per un approccio laissez-faire in cui le Big Tech decidono le regole. Ciò è particolarmente problematico in quanto l’AI Act dovrebbe proteggere i nostri diritti umani da sistemi di intelligenza artificiale rischiosi e distorti». Oltre a ciò, in merito alla regolamentazione sul riconoscimento biometrico, è anche da considerare l’investimento che la Francia ha già messo in campo per i sistemi di sicurezza delle prossime olimpiadi a Parigi, posizione che potrebbe essere stata decisiva per l’ammorbidimento della norma in casi specifici.
Il modello francese di Mistral si caratterizza per le alte prestazioni paragonabili a quelle dei competitor statunitensi pur richiedendo molte meno prestazioni di macchina, permettendo composizione ed elaborazione del testo in varie lingue, incluso quello della programmazione.
Il governo francese ha fortemente sostenuto e finanziato la start-up, rilevando nella regolamentazione europea un limite alla sua crescita nel mercato del settore. A ottobre scorso Cédric O, segretario di stato per l’economia digitale, constatava che «a seconda della forma finale dell’AI Act, questo potrebbe uccidere Mistral o farlo crescere». E ancora: «Il problema principale per l’Europa non è la regolamentazione, ma che nel mondo digitale sono i leader a stabilire gli standard, e l’Europa non ha leader», ha detto riferendosi alle più grandi aziende tecnologiche del mondo, statunitensi e cinesi. «L’Europa dovrebbe concentrarsi su una cosa: come far emergere i propri campioni».
Le sue parole sottolineano la questione della cosiddetta «Ai sovereignty», la sovranità dell’intelligenza artificiale, che come qualche anno addietro fu per la gestione dei dati, ora è il nuovo terreno di confronto e braccio di ferro per l’affermazione dei rapporti reciproci di forza nello spazio geopolitico. In un recente tweet del 17 novembre il Ceo di Mistral, Arthur Mensch, accusava la regolamentazione europea di porre un limite all’ascesa di nuovi attori: «L’intenzione di introdurre una regolamentazione a due livelli è virtuosa. Il suo effetto è catastrofico. Consolida di fatto l’esistenza di due categorie di aziende: quelle con diritto di scala, ovvero quelle dominanti che possono permettersi di far fronte a pesanti requisiti di conformità, e quelle che non possono perché non dispongono di un esercito di avvocati, ovvero quelle nuovi arrivati. Ciò segnala a tutti che solo gli attori esistenti di spicco possono fornire soluzioni all’avanguardia».
Il terreno del dibattito in corso e gli interessi in gioco ricordano lo scenario del 2018 durante l’entrata in vigore del GDPR (il regolamento sul trattamento dei dati) dopo il caso di Cambridge Analytica. Tuttavia è da considerare che all’epoca la questione riguardava la proprietà di dati degli utenti, quindi un fenomeno abbastanza “distribuito” seppur su scale diverse, con servizi e piattaforme in sedi sia statunitensi che europee. In questo caso, la regolamentazione va a colpire un settore fortemente verticalizzato, dove pochi – attualmente tre – giganti detengono gli unici modelli con potenza tale da essere soggetti alle limitazioni in questione. Questo fa anche sì che mentre da un lato l’Unione europea spinge verso una maggiore imposizione in termini di competizione su un monopolio che per ora è solo americano, dall’altro questo viene visto come un limite alla crescita da parte di stati che scommettono su start-up con l’intenzione di scalare quella cima. A riecheggiare nelle parole sia di O che di Mensch è quella ideologia californiana che esalta la deregolamentazione a favore del libero mercato, una visione che come introduceva nel dibattito italiano il collettivo Ippolita già nel 2012 afferisce alla corrente anarcoliberista caratteristica della Silicon Valley. Inoltre, come delineava quest’estate Morozov in un suo articolo sul New York Times, «la vera minaccia dell’Ia» si nasconde nell’ideologia del «lungoterminismo» e dell’«A.G.I.-ismo» (laddove Agi sta per artificial general intelligence): biforcazioni del transumanesimo capitalista, narrazioni tecno-entusiaste che vedono nella creazione di tecnologie intelligenti una missione da compiere per il bene dell’umanità, e per le quali ripercussioni come violazioni dei diritti umani e impatto ambientale sono solo incidenti di percorso.
«La nostalgia dello Stato nazione è inutile, anzi pericolosa: la dimensione globale nella quale il capitalismo si è organizzato costituisce un quadro fisso per il movimento di tutte le istituzioni, qualunque esse siano – statali o politiche, industriali o finanziarie». Scriveva così, il 20 ottobre 2014, Toni Negri sul sito di Euronomade, riflettendo sui sintomi nazionalistici di reflusso al capitalismo globale, e alle sue declinazioni dialettiche e narrative. In questa dimensione globale gli attori in gioco sono sempre e solo più visioni sovraniste (nazionaliste o continentali) e interessi industriali, facendo mancare altra voce in capitolo. Non è un caso se tra i grandi assenti del dibattito attorno alle IA vi sono la questione ecologica e il tema dell’impatto sul mondo del lavoro di queste tecnologie. Forse in questo grande vuoto lasciato dal discorso dominante, i temi della decrescita e dell’importanza di un reddito universale potrebbero trovare un nuovo spazio possibile.
Questo testo è una rivisitazione di articoli pubblicati a dicembre 2023 su Il Manifesto