Interactive

L’intelligenza artificiale e l’AI Act Europe, una visione simile a quella del GDPR: pochi divieti (con le dovute eccezioni) e ampio margine all’autodisciplina della aziende. Il punto di vista di Contents.com

Contents AI

L’Unione Europea vuole regolamentare l’intelligenza artificiale, l’etica e la trasparenza dei suoi usi, tenendo in conto i dettami della Casa Bianca, del CERN e dell’AI Safety Summit di Londra, ma preservando uno sguardo originale. In vista della prossima (?) approvazione dell’AI Act della UE, Contents.com, la tech company attiva nell’ideazione, creazione e trasformazione di contenuti, ha pensato di esplorare tutti gli aspetti che interessano il mercato contemporaneo dell’AI, con la voce di diversi interlocutori nel campo.

Per fare questo, lunedì 27 novembre ha organizzato una tavola rotonda a tema, presso Combo Milano, dove sono intervenute diverse figure esperte in materia. Relatori sono stati Luca Pardo, esperto di diritto comunitario (partner dello studio Ontier); Andrea Pescino, founder personalità con sguardo internazionale sul mondo AI; Francesco Magagnino, Digtal Transformation Senior Manager di Accenture; e Alessandro Calatroni, Country Manager Italy di Contents.com, moderati da Mario Moroni, podcaster e autore.

L’evento si è aperto con l’intervento di Massimiliano Squillace, CEO di Contents.com, che ha ricordato come tra pochi mesi l’AI sarà indispensabile come l’elettricità per lo sviluppo di qualsiasi app o contenuto. Poi si è affrontato il tema: IA e normativa, sfide e opportunità. Luca Pardo ha presentato le sfide giuridiche che l’IA porta nel contesto del diritto internazionale, dal diritto d’autore alla proprietà industriale, con esempi concreti di casi o aree in cui l’IA ha sollevato questioni legali internazionali.

“Invece di una visione autorizzativa dell’intelligenza artificiale”, ha sottolineato Pardo, “si è maggiormente orientati su qualcosa di simile a quanto già fatto con il GDPR: pochi divieti (con le dovute eccezioni) e ampio margine all’autodisciplina da parte delle aziende. Si è scelto un approccio basato sulla valutazione del rischio, imponendo una rigida compliance per le attivtà ad altissimo rischio, e una disciplina uniforme in tutta l’EU per costruire una banca dati che raccolga tutte le informazioni sull’AI. Perché è inutile nasconderselo: la definizione teorica dell’AI, che risale al 2021, due anni fa, è già irrimediabilmente vecchia, e il rischio di normare il passato è sempre ben presente trattando questi argomenti dove le release di ChatGPT, solo per fare un esempio, si susseguono a una velocità impressionante”.

L’intervento di Pardo si è chiuso con l’enunciato di che cosa nel concreto si possa e che cosa non si si possa fare in base alla normativa in atto. Nel corso degli interventi, si è discusso infatti sulle iniziative internazionali, accordi o trattati che cercano di regolamentare l’uso dell’IA su scala globale.

Andrea Pescino ha poi affrontato il tema dell’IA generativa che sta rivoluzionando numerosi settori attraverso la creazione di contenuti creativi, traduzioni automatiche, progettazione di prodotti, medicina e assistenza all’utente, incoraggiando il pensiero laterale e l’innovazione.

Durante la pandemia, Pescino aveva fatto parte di un’iniziativa della UE per studiare e suggerire l’impiego dell’intelligenza artificiale in Africa, venendo però a contatto con realtà ben più avanzate, benché solo settorialmente e in aree geograficamente limitate, delle nostre: “In Ruanda”, ha ricordato, “abbiamo trovato droni guidati dall’AI per consegnare sacche di sangue refrigerate agli ospedali sul territorio, e una app personale per gestire tutte le necessità sanitarie dell’individuo che era organizzata da un’intellgenza artificiale”. Ma anche in Europa non sono mancate le esperienze significative, come quella dell’uso dell’AI per raccogliare e ‘leggere’ tutti i big data, fissi e mobili, di Malta allo scopo di fornire servizi turistici sempre più profilati su tutte le isole dell’arcipelago.

La proprietà intellettuale, la responsabilità legale, la trasparenza, l’etica, la privacy e la sicurezza sono comunque questioni chiave da affrontare nel dibattito contemporaneo ed è essenziale bilanciare l’innovazione con la tutela dei diritti, della privacy e della sicurezza per garantire un uso responsabile ed etico di questa tecnologia in rapida evoluzione.

“Per sviluppare nuovi servizi e prodotti”, ha aggiunto Magagnino, “l’AI è ormai quasi indispensabile, e lo diventerà sempre di più man mano che il tempo passa. È necessaria una gestione efficace della disruption, che deve essere sì guidata dall’AI ma necessita di un elevato livello di sicurezza e di controllo. Non ci si può affidare ciecamente, ma per procedere a un cambiamento supportato dalla tecnologia, è necessaria l’adozione di una Responsible AI”.

Alessandro Calatroni, infine, ha concluso raccontando l’esempio di Contents.com, focalizzandosi su come l’Intelligenza Artificiale abbia trasformato un’azienda nata con un’idea interna in un solido core business rivolto al mercato globale.