AI, Trump cancella le regole: ora l’UE dovrà essere più forte

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Carta di credito con fido

Procedura celere

 


Ricordiamo tutti il record toccato dall’anno appena concluso: il 2024, oltre ad essere stato l’anno più caldo della storia, da quando ovviamente si misurano le temperature a livello globale, è stato anche l’anno con più elezioni, con 76 Paesi e 2 miliardi di persone chiamate alle urne. Ora che si sono concluse campagne elettorali e scrutini, è tempo di guardare a come cambieranno le politiche di molti Paesi in settori strategici, a partire da quello dell’intelligenza artificiale.

A maggior ragione a fronte del fatto che tra i primissimi atti di Donald Trump al suo secondo mandato alla presidenza Usa c’è stato l’annullamento, tra gli altri, dell’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence adottato dall’amministrazione Biden nell’ottobre 2023.

La partita dell’IA nel 2025: investimenti e regolamentazione

Da un lato, non c’è dubbio che la tendenza comune sarà in favore di un costante incremento di risorse ed investimenti per lo sviluppo e l’adozione sempre più diffusa di questa tecnologia. Solo per fare un esempio, è di pochi giorni fa l’annuncio effettuato dal primo ministro inglese circa un ambizioso piano per rendere il paese una superpotenza dell’IA.

Richiedi prestito online

Procedura celere

 

Dall’altro lato, di fianco agli investimenti, sta diventando sempre più cruciale la partita sulla regolamentazione dell’IA. Il tema è già da diversi anni sul tavolo dei principali legislatori di tutto il mondo e ha ormai raggiunto una portata globale. Basti pensare che, secondo i dati raccolti dall’Università di Stanford con l’AI Index Report 2024, già nel 2023 l’IA veniva citata nei procedimenti legislativi di 49 paesi e, nello stesso anno, almeno un paese di ogni continente ha discusso di questa tecnologia, Vaticano incluso.

In uno scenario così fitto e mutevole ci si inizia dunque già ad interrogare su quale potrebbe essere il miglior modello di regolamentazione dell’intelligenza artificiale. E il primo confronto non può che essere tra Unione europea e Stati Uniti. Ciò anche alla luce del recentissimo insediamento del nuovo presidente Donald Trump, che già è intervenuto sul tema. Ma procediamo con ordine.

La via europea

Con la proposta, prima, e l’approvazione, poi, della propria legge in materia di intelligenza artificiale (Artificial Intelligence Act) l’Unione europea ha presentato al mondo, prima fra tutti, il proprio modello di regolamentazione dell’IA. Un modello che si fonda su una legge organica, armonizzata e orizzontale, che mira a disciplinare in modo tendenzialmente completo il fenomeno dell’IA seguendo un approccio basato sul rischio. La scelta è stata dunque per una regolamentazione diretta di questo fenomeno tecnico-sociale con l’approvazione di una normativa generale ad hoc, posta in dialogo con le altre leggi europee che già regolamentano questa tecnologia, a partire dalla normativa in materia di circolazione e protezione dei dati personali (il GDPR).

L’approccio “pro” regolamentazione seguito in Europa non deve però dare adito a fraintendimenti rispetto all’importanza riservata al progresso tecnologico. L’AI Act è stato infatti concepito ricercando un costante bilanciamento tra esigenze di protezione dei diritti fondamentali e necessità di sostenere l’innovazione. Ciò è avvenuto sia introducendo norme dirette ad incentivare lo sviluppo di soluzioni di IA – come, ad esempio, l’istituzione in ogni stato membro di regulatory sandbox –, sia collocando questo intervento legislativo in un più ampio progetto di misure e incentivi per trasformare l’Unione europea in un leader globale non solo dal punto di vista regolatorio ma anche sul piano tecnologico. E ciò può realizzarsi proprio e anche grazie ad un sistema di regole certe, chiare e prevedibili.

A caratterizzare la via europea non sono soltanto la scelta dello strumento normativo, dell’approccio regolatorio e dei contenuti della legge. Tutti questi elementi hanno alla base la preventiva definizione di una chiara cornice etico-valoriale. L’AI Act poggia, infatti, sulla scelta di porre quale perno dello sviluppo dell’intelligenza artificiale in Europa una dimensione antropocentrica e rispettosa dei diritti e delle libertà fondamentali propri della tradizione costituzionale dei Paesi europei.

La via americana: regolamentazione verticale e specifica

Gli Stati Uniti, invece, non hanno seguito la stessa strategia dell’Unione europea. Non esiste, infatti, una legge federale di carattere generale che si occupa in modo organico di intelligenza artificiale, cosi come non esiste e non è mai esistita una legge che regolamenta e tutela la circolazione dei dati.

Alla scelta di dotarsi di un AI Act “a stelle e strisce” è stato invero preferito affidarsi a leggi, linee guida e framework già esistenti ed eventualmente di nuova introduzione, tutti però caratterizzati da un campo di applicazione settoriale. In altre parole, all’approccio orizzontale e armonizzato dell’Unione europea, gli Stati Uniti hanno risposto con una strategia di regolamentazione verticale e specifica.

Leggi federali e statali, al pari di provvedimenti di autorità ed enti regolatori e governativi, intervengono su specifiche casistiche d’uso o ambiti di applicazione di questa tecnologia. La mancanza di una legge come l’AI Act può spiegarsi per diverse ragioni, che risiedono sia nella tradizione storico-giuridica del paese (molto diversa da quella europea, come dimostra anche l’assenza, ancora oggi, di un GDPR americano), sia nel ruolo che gli Stati Uniti giocano nello scacchiere geopolitico, soprattutto nei confronti della Cina. In buona sostanza, una regolamentazione come quella europea oltre oceano viene spesso considerata come un potenziale freno allo sviluppo tecnologico, anche e soprattutto in chiave di competitività internazionale.

Finanziamenti personali e aziendali

Prestiti immediati

 

Non sono mancati in ogni caso gli interventi normativi (secondo l’AI Index Report, nel 2023 il numero di normative sull’IA negli Stati Uniti è cresciuto del 56,3%), anche da parte degli organi di vertice. In questo senso, l’uscente amministrazione guidata da Joe Biden si è fatta portatrice di più azioni volte a tracciare una cornice di riferimento per gli interventi settoriali. È il caso, ad esempio, del “Blueprint for an AI Bill of Rights” dell’ottobre 2022 – documento non vincolante con principi per uno sviluppo dell’IA in grado di garantire i diritti dei cittadini americani – o dell’“Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” dell’ottobre 2023 – documento governativo volto a guidare lo sviluppo e la diffusione dell’AI in senso responsabile.

Possibili scenari futuri in Europa

Tra meno di un mese, le prime norme dell’AI Act – già pienamente in vigore a seguito della pubblicazione nella Gazzetta Ufficiale dell’Unione europea – diventeranno anche applicabili. Inizierà così ufficialmente il processo di applicazione concreta della legge, una fase che occorrerà monitorare per alcuni anni prima di poter valutare gli effetti di questa normativa sul mercato.

La speranza, che per molti è già una previsione, è che ancora una volta si verifichi quel “Brussels effect” che ha fatto del Regolamento Generale sulla Protezione dei Dati, il GDPR, lo standard normativo internazionale della data economy.

Le prime mosse di Trump

Come accennavamo, con l’insediamento di ieri, il nuovo Presidente degli Stati Uniti Donald Trump ha, intanto, iniziato formalmente il suo secondo mandato, e fra i tanti faldoni sulla sua scrivania ci sarà anche quello sull’intelligenza artificiale.

Ci sono però volute meno di ventiquattro ore dal giuramento per assistere alla prima mossa del 47° presidente USA. Tra i primissimi atti del mandato c’è infatti l’annullamento, tra gli altri, dell’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence adottato dall’amministrazione Biden nell’ottobre 2023. Non si tratta certamente di un fulmine a ciel sereno. Era infatti prevedibile la volontà di creare una netta linea di discontinuità con la precedente amministrazione, coerentemente con le critiche ad ampio raggio avanzate nel corso di tutta la campagna elettorale degli ultimi anni.

Non è facile prevedere quali saranno i prossimi passi del nuovo capo di stato. I primi riposizionamenti di alcune delle Big Tech, o quanto meno dei loro soci di maggioranza o dei loro proprietari, non ci lasciano purtroppo ben sperare, ed il quadro geopolitico, rischia di frammentarsi e confondersi ancor di più in ragione delle due sfide del prossimo quinquennio che riguardano proprio l’intelligenza artificiale ed il riposizionamento alla conquista dello Spazio.

Questo primo atto di Trump, esemplificativo di un gesto di forza politica, può spaventare certamente in termini di metodo, ma ancora nulla ci dice rispetto a quale sarà la strategia della nuova presidenza in materia di regolamentazione dell’IA. È certo, però, che una strategia ci sarà, e non potrebbe essere altrimenti. Il prezzo di non determinare un framework chiaro e prevedibile di regole “made in USA” è continuare a subire – esattamente come avvenuto col GDPR – la leadership normativa dell’Unione europea che, approvando l’AI Act, si è già candidata a imporre la golden rule a livello internazionale. Dovrà allora essere definitivamente abbandonato, specialmente oltre oceano, ogni scetticismo verso la necessità e l’utilità della regolamentazione. Le norme, in modo particolare nel contesto della data economy e del digitale, non solo determinano sicurezza e benessere per i cittadini, ma sono le condizioni migliori per garantire la crescita del mercato. Esattamente come avvenuto nel settore automobilistico, grazie a regole come il Red Flag Act inglese di metà ‘800, che nel regolamentare un fenomeno nuovo per il tempo ha gettato le basi per lo sviluppo senza precedenti di una delle industrie più fiorenti della storia umana.

Finanziamenti personali e aziendali

Prestiti immediati

 

Il rischio di una Ue indebolita

Calma e sangue freddo dunque. Capiremo presto ruolo ed intenzioni di Cina e Stati Uniti in questo scenario mutevole, ma il vero problema, a mio sommesso avviso, è a questo punto una Unione Europea indebolita nella sua visione di insieme, nella capacità di incidere sui mercati e nella politica internazionale e frammentata nella leadership. Solo un progetto di rilancio del sogno europeo ed un ancor più forte ancoramento dei Paesi dell’Unione ai principi del Trattato di Roma e di quello di Lisbona, può far emergere nuovamente l’Europa come il vero modello di libertà e democrazia da seguire, in un quadro di precarietà diffusa di tali principi al momento estremamente mortificati in molte parti del globo, Europa inclusa.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link