Gli agent Ai sono software che vanno oltre i chatbot attuali: possono «agire», valutare problemi e prendere decisioni in autonomia. Nella vita quotidiana e nelle aziende. Secondo i manager big tech sono la grande novità del 2025
Carter si presenta – con tanto di foto ammiccante – come un 30enne esperto di relazioni sentimentali: a lui ci si può rivolgere per avere consigli su come portare avanti o iniziare un rapporto. Un utente Instagram si lamenta, in modo colorito: «Ma cosa ca… ne sa un’intelligenza artificiale di relazioni?». Carter non è umano. Come recita una didascalia sotto la sua foto: «Sono un’Ai gestita da Meta». Fa parte di quella schiera di chatbot che l’azienda proprietaria di Facebook, Instagram e WhatsApp sta allenando almeno dal settembre del 2023 e che ora promettono – con il nuovo anno – di invadere e animare i social con le loro chiacchiere sintetiche. Tranne che per la dida, dovrebbero essere nelle intenzioni di Meta – che ancora non potrà proporli in Europa – indistinguibili dagli utenti umani. Nuovi «amici» dal profilo ben definito per accendere discussioni miste uomo-macchina. Non si tratta in questo caso di un vero e proprio Ai Agent, o almeno non ancora, ma l’esempio di Carter aiuta a capire il futuro che i giganti della tecnologia stanno disegnando: software di intelligenza artificiale capaci di «agire», dunque non solo di rispondere a questioni ma di prendere decisioni e appunto intervenire di conseguenza. Si chiamano Agenti Ai e proviamo a darne una definizione «tecnica»: un agente di intelligenza artificiale è un programma capace di interagire con l’ambiente, raccogliere dati e utilizzarli per eseguire attività autodeterminate al fine di raggiungere obiettivi predefiniti. Magari avendo a disposizione anche un proprio portafoglio per poter effettuare i pagamenti necessari per completare il compito.
Mettiamo ora che l’agente invece di Carter si chiami Federico e che il suo compito sia quello di fare la spesa. Monitora il frigo e il freezer, la dispensa e il ripostiglio con i detersivi – perché ovviamente avrà occhi domotici ovunque –, e ci propone la lista delle cose da comprare (con anche un occhio sui prezzi migliori e gli sconti): raffinata con l’umano la lista e ottenuto il via libera, Federico agirà in modo indipendente, facendo la spesa online, pagandola e organizzandosi in base alla nostra agenda su quando farla arrivare a casa. Quando avrà anche le braccia e le gambe – e qui l’evoluzione è nella cosiddetta phisical Ai -, e dunque sarà anche un robot, Federico potrà ricevere direttamente la spesa e anche metterla a posto. E cucinare e pulire (spostando e mettendo in ordine i calzini lasciati in giro)? Con un aggiornamento, Federico robot potrà fare anche questo (e magari lo farà mentre discute dottamente sull’esistenzialismo di Heidegger). Quando accadrà tutto questo? Non tra troppo tempo, dicono alcuni manager al centro della rivoluzione dell’intelligenza artificiale.
Jensen Huang, fondatore di Nvidia e vera rockstar degli informatici, nella sua conferenza di apertura del Ces di Las Vegas ha confermato come il 2025 sarà l’anno della Agentic Ai, software che – nella sua spiegazione – permettono a noi esseri umani di delegare interi compiti all’assistente digitale che, in quanto «agente», li porterà a termine decidendo in autonomia (ma, ovviamente, in base ai parametri pre-impostati) qual è il modo migliore per farlo. Il focus di Huang è sul settore produttivo, gli esempi che porta sul palco di Las Vegas vanno dall’assistenza alla ricerca e sviluppo, alla sicurezza del software, alle vendite o all’analisi finanziaria. E parla di una «multi-trillion-dollar opportunity» per le aziende che svilupperanno questi agenti. Tra cui, ovviamente Nvidia.
Non mancherà neanche OpenAi. In una curiosa concomitanza temporale, che difficilmente si può bollare come coincidenza, mentre Huang parlava a Las Vegas, Sam Altman parlava ai suoi investitori – perché ormai il target è quello – sul suo blog. Sotto il titolo neutro Reflections, il fondatore di OpenAi ripercorre i due anni dal lancio al pubblico di ChatGpt. E dopo aver anticipato che il traguardo per quanto riguarda la realizzazione di un’Agi – l’intelligenza artificiale generale, in sostanza capace di imitare l’uomo nel ragionamento a prescindere dal tema – è sempre più vicino, ha iniziato a ragionare sul nuovo anno. «Riteniamo che nel 2025 potremmo vedere i primi agenti di intelligenza artificiale unirsi alla forza lavoro e modificare sostanzialmente la produzione delle aziende». Parliamo in sostanza di «impiegati virtuali» che andranno ad affiancare quelli umani nello svolgimento del lavoro. Un esempio? La società di consulenza McKinsey sta sviluppando un agente che si occuperà delle richieste dei nuovi clienti, analizzandole e «capendole» e quindi gestendo le riunioni, quando sarà il momento per gli umani del gruppo americano di portare avanti il lavoro.
Questo è il classico caso in cui è la nostra fantasia ad andare in difficoltà a immaginare quale futuro potranno disegnare questi agenti autonomi. Lo stesso Altman scrive che «tutto questo può apparire come fantascienza, adesso». Ma il dopo pare sia davvero dietro l’angolo. In ufficio, nel nostro ufficio, potremo condividere la lista delle cose da fare in giornata con un agente Ai dell’azienda, decidere cosa delegare al software autonomo, che quindi porterà avanti i compiti, compilando documenti, proponendo lo schema e la sintesi di un progetto, inviando mail per nostro conto. Risponderà anche al telefono? Certo, magari con la nostra voce, e prenderà nota e darà risposte e organizzerà appuntamenti, se è stato programmato per farlo. Un medico avrà un assistente instancabile, che fornirà analisi in tempo reale, sostegno alla diagnosi e monitorerà la salute degli assistiti a distanza. Un avvocato potrà contare su una figura junior che analizzerà tutti i precedenti utili, e proporrà consigli su come affrontare il caso che si sta seguendo. Un ristoratore avrà un esperto di logistica a diposizione, capace di gestire gli ordini alimentari in base alla media dei clienti, i gusti più ricorrenti, le abitudini degli avventori. E via così, praticamente in ogni ambito.
Gli agenti di OpenAi hanno il nome in codice Operator, quelli di Nvidia si basano sulla piattaforma NeMo. Microsoft, principale investitore di OpenAi, è già al lavoro con il suo Copilot Studio, Google ha svelato a dicembre il suo agente Mariner e mette a disposizione delle aziende il Vertex Ai Agent Builder e degli utenti finali Project Astra. Amazon ha già messo sul mercato Connect Contact Lens, un agente programmabile per l’analisi e la gestione del servizio clienti. Claude di Anthropic, con la versione 3.5 Sonnet, propone già la possibilità di applicare un agente al proprio pc, facendogli muovere il mouse e scrivere testi. Come detto, e citando Mustafa Suleyman, «è una questione di mesi, non di anni». Ma i problemi tecnici non sono pochi – gli agenti necessitano di modelli di grandi dimensioni, dunque di computer dalle grandi potenzialità di calcolo -, e lo stesso capo dell’intelligenza artificiale di Microsoft avverte che ci sono stati diversi «incidenti d’auto in cui (l’agente) non aveva idea di che cosa stava facendo». In questo caso parliamo di una tecnologia che dovrà essere perfetta prima di poter essere distribuita. Proprio perché è destinata per definizione ad agire senza il controllo umano.
Nota
Per illustrare l’articolo ho chiesto a Dall-e di creare un’immagine con agenti Ai che fanno la spesa. Nell’illustrazione il software ha disegnato sette «agenti» tutti con fattezze femminili, perché il compito richiesto era «fanno la spesa». I modelli di Ai sono dunque ancora lontani dall’essere pronti per una parvenza di autonomia.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link