Artificial Intelligence: quando può considerarsi troppo potente?
Quasi 30.000 firmatari per rallentare la sperimentazione sui sistemi di AI più potenti e performanti.
Yuval Noah Harari, Steve Wozniak e Elon Musk sono solo alcuni dei nomi più celebri apparsi nella lettera aperta pubblicata a marzo 2023 dal Future of Life Institute che lancia un appello alla comunità internazionale dell’Artificial Intelligence e, in particolare ai grandi laboratori di Ricerca come Open AI, sulle ripercussioni che un’incontrollata corsa all’innovazione può scatenare.
Tra queste, emerge soprattutto la doppia velocità dell’ecosistema AI: da un lato centri di ricerca e provider tecnologici rilasciano sempre più rapidamente sul mercato sistemi autonomi a elevate performance ma spesso con non poche perplessità sui dati di training utilizzati e sulla trasparenza degli algoritmi; dall’altro le istituzioni rincorrono l’innovazione per definire protocolli di governance che si adattino a una tecnologia in continua evoluzione.
In questo scenario di incertezza regolamentare e frenetici passi in avanti dell’AI, a preoccupare sono soprattutto quei sistemi chiamati “general purpose”, soluzioni che possono essere utilizzate per più finalità e la cui capacità di competere con gli operatori umani su alcune attività risulta tale da apparire talvolta indistinguibile.
Qual è il valore sociale di modelli di intelligenza artificiale sempre più performanti? È necessario per il benessere collettivo automatizzare anche le mansioni più appaganti per gli esseri umani? Se si, quali saranno gli impatti di queste scelte sugli individui?
Queste alcune delle domande poste dagli autori della lettera, che incoraggiano a riflettere sulla necessità di individuare con un processo democratico – soprattutto all’interno delle istituzioni – costi, benefici e rischi di sviluppare sistemi autonomi sempre più performanti. Solo un consenso condiviso tra policy-maker e cittadini rispetto al valore aggiunto che queste tecnologie possono avere per la società, permetterà di non delegare queste delicate decisioni al mondo delle big tech intente a superare la frontiera dell’innovazione.
Le preoccupazioni dei firmatari della lettera vengono in egual modo condivise dal Parlamento Europeo, che prosegue gli sforzi normativi per introdurre sul mercato unico sistemi di AI affidabili. I legislatori hanno recentemente dichiarato di aver esteso oltre il termine stabilito la negoziazione dell’Artificial Intelligence Act, pubblicato per la prima volta in bozza nell’aprile 2021, soprattutto per dedicare un opportuno spazio di riflessione ai sistemi di AI più discussi dell’ultimo anno.
Punti principali del confronto in corso riguardano l’attribuzione e la distribuzione della responsabilità lungo la catena del valore dei sistemi di intelligenza artificiale. In particolare, ci si interroga sulle soluzioni “general purpose”, maggiormente a rischio di uso improprio, e su quelle generative per prevenire la produzione di contenuti dannosi o in violazione del copyright.
Se ad oggi l’UE ha infatti prescritto la tassonomia di sistemi ad alto rischio, cui si associano specifici obblighi di monitoraggio e mitigazione, in base alla loro area di applicazione – come quelli destinati a regolare il mondo del lavoro dipendente -, sono numerosi i problemi che sorgono con la commercializzazione da parte dei provider tecnologici dell’AI “general purpose”: non avendo una finalità di utilizzo prestabilita e quindi non essendo associati in maniera specifica ad alcuna delle aree considerate a rischio elevato, ciò sgraverebbe i produttori dall’adempiere ai requisiti previsti per gli sviluppatori. L’onere di compliance con la normativa ricadrebbe dunque sugli utilizzatori finali dei sistemi ad alto rischio in ciascun campo di applicazione che, per contro, si vedrebbero impossibilitati a adempiere in mancanza delle informazioni sui dati e sui modelli utilizzati dai provider principali.
Le complessità da affrontare nello sforzo di introdurre sistemi di intelligenza artificiale affidabili sono ancora molte: dall’impianto normativo fino agli interrogativi posti dal Future of Life Institute circa il ruolo dell’AI per il benessere collettivo. Rimane dunque da domandarsi se sia necessario chiedere alla tecnologia di rallentare mentre si lavora in chiave prospettica su dei framework comuni che permettano di adattarsi continuativamente alla corsa inarrestabile dell’innovazione.
A cura di
Camilla Sorrentino
Artificial Intelligence, Cloud TransformationLaureata in Economia e Scienze Sociali presso l'Università Bocconi. Ricercatrice presso la Scuola di Management del Politecnico di Milano, dove collaboro con l'Osservatorio sull'Intelligenza Artificiale e la Trasformazione Cloud, studiando l'impatto delle tecnologie digitali nel panorama aziendale e della società civile italiana.
Siamo a tua disposizione per informazioni e assistenza
Eleonora Evstifeew
Acquisti e abbonamenti Da Lunedì al Venerdì, dalle 09 alle 18Antonella Zagheni
Assistenza abbonati Da Lunedì al Venerdì, dalle 09 alle 18Scopri altri contenuti di Artificial Intelligence