Se nelle previsioni più pessimistiche, ChatGPT (che è stata lanciata a novembre scorso) potrà rubarci il lavoro, spiare le nostre vite e addirittura dominare il pianeta, parrebbe aggiungersi a queste minacce un nuovo motivo di preoccupazione: la dipendenza psicologica dall’intelligenza artificiale (IA).
Allarme parzialmente smentito da Federico Tonioni, psichiatra e psicoterapeuta, che al Corriere ha affermato, in risposta a un’interrogazione sul tema: “In realtà si tratta di un abuso cosciente, simile a quello di chi fa l’abbuffata di serie tv e poi smette perché non ne può più. La dipendenza da ChatGpt non esiste, o meglio rientra in quella che chiamiamo ‘internet addiction‘, un comportamento che riguarda la maggior parte dell’umanità. Quasi tutti siamo dipendenti dallo smartphone”.
Ma allora che cos’è, ammesso che esista, questa ‘dipendenza’ dall’artificial intelligence? ChatGPT, sviluppato com’è è noto da OpenAI, è un chatbot, ovvero un software che sa rispondere alle domande e conversare. A differenza di sistemi simili usati in precedenza, ChatGPT è brillante e sa rispondere quasi a tutto. E una personalità narcisistica, posta davanti a un’intelligenza artificiale avanzata, può sentirsi perfettamente a proprio agio, come fosse davanti a uno specchio.
Prima di novembre, esistevano modelli di GPT (generative pre-trained transformer, nda) accessibili solo agli ‘addetti ai lavori’ e non al grande pubblico. Peraltro la stessa ChatGpt è stata temporaneamente bloccata in Italia a fine marzo, per circa un mese, dopo un’allerta lanciata dal Garante della privacy (dati personali a rischio). Per perfezionare il software è stato arruolato personale in Paesi dell’Est Europa e dell’Africa. Queste persone hanno il compito di porre a ChatGpt domande su temi ‘delicati’, per verificare le risposte. In altre parole, OpenAI sta investendo molte risorse per garantire che le risposte date dal chatbot, per esempio su temi come sesso o terrorismo, non siano problematiche.
Ma, se forse non corriamo il rischio di essere ‘dominati’ dall’IA, alcune preoccupazioni sono ben più concrete: ChatGPT può svolgere benissimo diverse professioni (e non richiede salario, né diritti sindacali), può spiare i nostri dati personali e può dare dipendenza – per ora solo – psicologica. Molte persone limitano la propria socialità alle ore trascorse in ufficio. ChatGPT porta all’estremo una caratteristica dei social: ovvero ti permette di esprimerti liberamente, senza necessità di ascoltare gli altri, senza dover sostenere un dialogo vero. Quello che si può creare con l’intelligenza artificiale avanzata è un modello relazionale non realistico, fortemente egocentrato,
Se quello della dipendenza dall’AI è un problema per ora ancora in divenire, un altro aspetto è invece molto più concreto: quello degli utilizzi illeciti, a cui l’AI può prestare un valido aiuto in molte forme. ChatGPT sta attirando l’attenzione dei cybercriminali che cercano di trarre vantaggio dall’utilizzo di espressioni e nomi di dominio che sembrano collegati al sito. Per ora quindi non di utilizzo delle potenzialità dell’AI per scopi criminali, ma di un più banale look alike a scopi di inganno. Ma è opportuno comunque esercitare cautele, ad ampio spettro.
Tra novembre 2022 e inizio aprile 2023, infatti, i ricercatori di Unit 42, il threat intelligence team di Palo Alto Networks, hanno osservato un aumento del 910% delle registrazioni mensili di domini correlati a ChatGPT, abbinati a una crescita del 17.818% dei domini abusivi dai registri di DNS Security e fino a 118 rilevamenti giornalieri di URL pericolosi catturati dal traffico analizzato nel proprio sistema avanzato di URL filtering.
Per questo motivo è opportuno sottolineare i pericoli potenziali dell’uso di chatbot imitatori, per incoraggiare gli utenti di ChatGPT ad avvicinarvisi con un approccio prudente. Durante la ricerca della Unit 42, sono stati osservati diversi URL di phishing che tentavano di imitare siti OpenAI ufficiali. In genere, i cybercriminali creavano un sito web fittizio che assomigliava molto a quello ufficiale di ChatGPT, per indurre gli utenti a scaricare malware o condividere informazioni sensibili. Ad esempio, agli utenti viene presentata una schermata con un bottone ‘scarica per windows’ che, una volta cliccato, procedeva al download di un Trojan sui loro dispositivi senza che le vittime se ne rendessero conto.
I truffatori inoltre potrebbero utilizzare l’ingegneria sociale legata a ChatGPT per il furto di identità o frodi finanziarie. Nonostante OpenAI abbia messo a disposizione degli utenti una versione gratuita di ChatGPT, i cybercriminali conducono le vittime su siti web fraudolenti, che indicano la necessità di pagare per questi servizi, inducendoli a fornire loro informazioni sensibili, come i dati della carta di credito e l’indirizzo eMail. In attesa che le potenzialità criminali di ChatGPT vengano sfruttate appieno da cybercriminali più evoluti…