Interactive

Ecco il codice di condotta per chi sviluppa sistemi di intelligenza artificiale: approvato dal G7 il ‘Processo AI di Hiroshima’

hiroshima

I paesi del G7 hanno concordato su un codice di condotta per chi sviluppa sistemi di intelligenza artificiale (AI), volto a mitigare i rischi derivanti da questa tecnologia come la disinformazione e la violazione della privacy o della proprietà intellettuale.

I leader dei paesi del G7 (Canada, Francia, Italia, Giappone, Regno Unito, Germania, e Stati Uniti) hanno approvato questa settimana una guida per il settore, definito come ‘Processo AI di Hiroshima’, riferendosi alla presidenza giapponese in carica, che da gennaio sarà sostituta dell’Italia, per rispettare la turnazione prevista. Ma l’AI rimarrà certamente al centro delle attività, come già annunciato dal presidente del Consiglio Giorgia Meloni.

Le linee guida approvate sono naturalmente in divenire, e le raccomandazioni sono aperte al contributo di tutti i paesi, del mondo delle università, del business e della società civile, in previsione dell’impatto enorme che l’Artificial Intelligence avrà sulla vita quotidiana di tutti.

L’obiettivo del G7 è comunque quello di creare uno strumento standard di monitoraggio e controllo condiviso dell’AI, che sia basato in primo luogo sul rispetto dei diritti umani. L’uomo resta infatti al centro del sistema, e rilevanza particolare avranno sia la previsione dei rischi e la tracciabilità dei processi decisionali, sia la segnalazione delle vulnerabilità, la registrazione degli incidenti, la trasparenza e condivisione delle informazioni.

Nelle intenzioni del G7, l’AI dovrebbe indirizzarsi soprattutto alla soluzione dei grandi problemi del mondo: dall’emergenza climatica alla salute, all’istruzione. Lasciamo a ogni lettore valutare quanto questo rappresenti un wishful thinking e quanto sia una realtà, comunque il Processo di Hiroshima mira a promuovere lo sviluppo di sistemi di intelligenza artificiale “sicuri e affidabili” a livello internazionale e a “gestire i relativi rischi”, si legge nella dichiarazione congiunta del G7, che riconosce inoltre il “potenziale innovativo e trasformativo” dei sistemi avanzati di intelligenza artificiale e sottolinea la necessità a “proteggere le persone, la società e i principi condivisi”, oltre a “mantenere l’umanità al centro”. nonché principi per le aziende e le organizzazioni coinvolte nello sviluppo di sistemi di intelligenza artificiale.

Queste linee guida saranno riviste periodicamente, se necessario, “per adattarsi alla rapida evoluzione della tecnologia” e in consultazione con le parti interessate. Oltre a invitare le imprese e le istituzioni del settore a seguire questo codice di condotta, i paesi del G7 “accelereranno il processo di sviluppo di un quadro politico” per promuovere l’attuazione del processo di Hiroshima, che includerà “una cooperazione basata su progetti”. Tutte le citazioni virgolettate sono estratte dalla dichiarazione finale del G7, in ogni caso.

L’obiettivo è anche quello di promuovere il rispetto di questa tabella di marcia attraverso la cooperazione e la consultazione con diversi organismi internazionali come il Partenariato globale sull’intelligenza artificiale (GPAI), l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) e con attori pubblici e privati, nonché con i paesi che sono non fanno parte del G7.

Gli 11 punti del codice di condotta di Hiroshima

  1. Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’intelligenza artificiale.
  2. Modelli di abuso, dopo la diffusione, compreso l’immissione sul mercato.
  3. Segnalare pubblicamente le capacità, i limiti e gli ambiti di applicazione dei sistemi avanzati di IA uso appropriato e inappropriato, per sostenere la garanzia di una trasparenza sufficiente, contribuendo così ad aumentare la responsabilità
  4. Lavorare verso la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale, anche con l’industria, governi, società civile e mondo accademico.
  5. Sviluppare, attuare e divulgare politiche di governance dell’IA e di gestione del rischio, basato su un approccio basato sul rischio, comprese le politiche sulla privacy e la mitigazione misure, in particolare per le organizzazioni che sviluppano sistemi avanzati di IA.
  6. Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la sicurezza informatica e le misure di salvaguardia contro le minacce interne durante tutto il ciclo di vita dell’IA.
  7. Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, ove tecnicamente fattibile, come filigranatura o altre tecniche per abilitarlo agli utenti per identificare i contenuti generati dall’intelligenza artificiale.
  8. Dare priorità alla ricerca per mitigare i rischi sociali e per la sicurezza e definire le priorità di investimenti in misure di mitigazione efficaci.
  9. Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per affrontare le più grandi sfide globali, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione
  10. Avanzare lo sviluppo e, ove opportuno, l’adozione di misure internazionali norme tecniche
  11. Attuare misure adeguate di immissione dei dati e protezioni per i dati personali e proprietà