di Monica Gianotti
Elon Musk ha lanciato settimana scorsa un appello sulla sua piattaforma di social media X chiedendo alle persone di inviare le loro analisi mediche a Grok, il suo chatbot AI.
Musk ha chiesto agli utenti di “provare a inviare radiografie, PET, risonanze magnetiche o altre immagini mediche” alla piattaforma di intelligenza artificiale per analizzarle. È ancora in fase iniziale – ha scritto – ma è già abbastanza accurata e diventerà estremamente buona. Fateci sapere dove Grok ha ragione o ha bisogno di lavoro”.
Musk ha lanciato Grok, il chatbot AI sviluppato dalla sua società, xAI, un anno fa. L’azienda aveva definito Grok, ‘spiritoso e ribelle’ nelle sue risposte, in grado di affrontare anche le ‘domande piccanti’ che altri modelli di IA potrebbero evitare. Un chatbot, dunque, progettato per avere meno barriere di protezione rispetto ai suoi principali concorrenti e quindi più incline ad allucinazioni e pregiudizi.
Non sorprende quindi che l’invito di Musk a condividere i dati medici abbia sollevato importanti questioni legate alla privacy. Gli esperti sono ampiamente d’accordo nel non condividere dati sensibili con sistemi di intelligenza artificiale disponibili al pubblico. Del resto anche la politica sulla privacy di xAI scoraggia gli utenti dall’includere informazioni personali nei messaggi: “Si prega di non condividere alcuna informazione personale (comprese le informazioni sensibili) nelle domande rivolte a Grok”, si legge sul sito dell’azienda.
Perché, quindi, questa pessima idea? Probabilmente l’ennesimo tentativo di arrivare diritti all’obiettivo, usando tutte le scorciatoie possibili e saltando la ‘burocrazia’ intermedia. E al diavolo la privacy…