Un eccesso di regole può essere nocivo, sicché l’attività di regolazione deve essere attenta a toccare solo gli aspetti essenziali, ma essa è una forte garanzia per chi usa questi strumenti perché trasmette fiducia sulla qualità dello strumento usato
L’America di Trump, e non solo, afferma che l’Europa frena l’innovazione con la sua mania di mettere regole a tutto, anche all’intelligenza artificiale. Per verificare, ho chiesto a ChatGpt se servisse una regolazione per l’intelligenza artificiale e quali potessero essere alcune regole.
Ecco la risposta: «Sì, la regolazione dell’intelligenza artificiale è essenziale per garantire che le tecnologie vengano utilizzate in modo etico, sicuro e responsabile. Le regole necessarie per regolamentare l’AI potrebbero includere: 1. Trasparenza: le decisioni prese dai sistemi di AI devono essere comprensibili e spiegabili, soprattutto in contesti cruciali come la sanità, la giustizia o la finanza. 2. Privacy e protezione dei dati: le tecnologie di AI devono rispettare la privacy degli utenti, garantendo che i dati sensibili siano trattati in modo sicuro e anonimo, in conformità con le leggi sulla protezione dei dati, come il Gdpr. 3. Non discriminazione e inclusività: i sistemi di AI non devono perpetuare bias o discriminazioni. È importante che l’AI sia progettata per essere equa e inclusiva, evitando pregiudizi razziali, di genere o socioeconomici. 4. Responsabilità: dev’essere chiaro chi è responsabile quando l’AI causa danni o errori. Le aziende che sviluppano e implementano AI devono essere responsabili per il funzionamento e gli effetti dei loro sistemi. 5. Sostenibilità e sicurezza: i sistemi di AI devono essere sicuri da un punto di vista tecnico, riducendo al minimo i rischi di malfunzionamenti o abusi, e devono essere sviluppati tenendo conto delle implicazioni a lungo termine sull’ambiente e la società. 6. Autonomia umana: le AI non dovrebbero sostituire completamente l’intervento umano, specialmente nelle decisioni che riguardano il benessere delle persone. Gli esseri umani devono mantenere il controllo finale sui processi decisionali critici. In generale, la regolamentazione dell’intelligenza artificiale dovrebbe cercare di bilanciare l’innovazione tecnologica con la protezione dei diritti umani, la sicurezza e la giustizia sociale».
I brevetti
È molto probabile che, dopo questa risposta, il vicepresidente degli Usa JD Vance finirebbe per additare ChatGpt come promotrice di valori antiamericani, di stampo europeo, avversi all’innovazione e alla libertà di espressione.
Forse arriverebbe a vietarla negli Usa, specie se scoprisse, come mi è capitato, che se gli si chiedesse come si chiama il golfo nel mare Atlantico che bagna il Texas e il Messico la risposta fosse «il golfo che bagna il Texas e il Messico si chiama Golfo del Messico. Si tratta di un ampio golfo dell’oceano Atlantico, che si estende tra la penisola della Yucatan in Messico e la costa sud-orientale degli Stati Uniti».
Il presidente Trump ha inibito l’accesso alla sala stampa della Casa Bianca a un giornalista di un editore che si ostinava ancora a chiamare Golfo del Messico quello che lui ha ribattezzato Golfo d’America, a riprova dell’esistenza della libertà di espressione negli Usa tanto sbandierata da Vance.
L’idea che le regole frenino l’innovazione è veramente stramba. Proprio per difendere l’innovazione è stata introdotta una regola, quella dei brevetti, che riserva la proprietà di sfruttamento delle invenzioni ai legittimi proprietari per un determinato numero di anni.
Questa regola difende l’innovazione perché tutela l’inventore rispetto a chi lo vorrebbe copiare, riservando a lui, per un determinato periodo di tempo, i guadagni derivanti dalla sua invenzione. Se non ci fosse questa regola, in un mondo dove l’informazione circola rapidamente, non ci sarebbe neppure l’interesse a investire nella ricerca e, quindi, non ci sarebbero innovazioni.
Diritto di autore
Analogo è il caso del diritto di autore per chi crea opere nuove (libri, articoli, musica, video, ecc.), sicché è logico, come recita anche ChatGpt, che vadano rispettati i diritti di proprietà anche per l’intelligenza artificiale nella sua fase di apprendimento e che ci sia la dovuta trasparenza.
Certo, un eccesso di regole può essere nocivo, sicché l’attività di regolazione deve essere attenta a toccare solo gli aspetti essenziali, ma essa è una forte garanzia per chi usa questi strumenti perché trasmette fiducia sulla qualità dello strumento usato.
La fiducia nell’intelligenza artificiale da parte dei futuri utenti sarà tanto più elevata quanto più saranno note le basi informative su cui questa intelligenza artificiale si è costruita. Se il materiale di base è certificato, allora si potrà avere fiducia sull’intelligenza artificiale utilizzata.
Se invece fossero stati utilizzati materiali sconosciuti, anonimi o pescati a caso sulla rete, l’intelligenza artificiale che ne scaturirebbe non avrebbe alcuna garanzia di qualità, potrebbe produrre veri danni e finirebbe per perdere fiducia presso gli utilizzatori. Le regole ben fatte aiutano l’innovazione e fanno progredire l’umanità, mentre l’assenza di regole può generare danni e regressi.
Esiste una correlazione positiva nel tempo tra regole e progressi tecnologici, mentre la legge della giungla può favorire nel breve termine qualche operatore, ma finirebbe per distruggere ogni prospettiva duratura di progresso.
© Riproduzione riservata
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link