Interactive

Machine Learning, Augmented Reality e comandi vocali per Snapchat, presentati al secondo Summit annuale della società

Obiettivi a comando vocale e riconoscimento della immagini con il Machine Learning/AI rappresentano la nuova frontiera per Snapchat, svelata ieri nel corso del secondo Summit annuale della società, che ha annunciato anche una serie di nuove funzionalità e aggiornamenti per aprire maggiormente la piattaforma a sviluppatori ed editori di terze parti.

Il Vocal Scan di Snapchat, prima tra le novità, offre agli utenti Lens risultati di ricerche basate su comandi vocali: grazie alla collaborazione con SoundHound, agli Snapchatter basta premere lo schermo della fotocamera per dire a Snapchat quale tipo di obiettivo visualizzare.

La piattaforma sta inoltre compiendo grandi passi nel riconoscimento delle immagini attraverso la sua funzione di scansione, che viene attivata quando si tiene premuto il pulsante della fotocamera. Snapchat ha annunciato che sta lavorando con nuove aziende all’identificazione di diversi generi di immagini, attraverso funzioni quali Plantsnap, che può identificare il 90% di tutte le piante e alberi conosciuti, o Dog Scanners, che può riconoscere quasi 400 razze di cani. Un’integrazione con Yuka, prevista per la fine di quest’anno, alimenta inoltre il Nutrition Scanner, che fornisce una valutazione della qualità degli ingredienti in molti prodotti commestibili confezionati mediante la scansione dell’etichetta di un articolo.

La funzione Scan viene anche promossa come un’opportunità per i brand: ad esempio gli utenti saranno in grado di scansionare il monogramma di Louis Vuitton con una foto per “essere trasportati nel mondo inspirato che sta dietro la loro ultima collezione”, secondo la nota stampa diffusa ieri.

Un’altra novità del Summit è il lancio di SnapML, una funzionalità che fa parte di Lens Studio 3.0, che consente a qualsiasi sviluppatore di portare i propri modelli di machine learning direttamente all’interno di Lens Studio. Snap ha collaborato con Wannaby, Prisma, CV2020 e diversi creator ufficiali di Lens nelle loro prime realizzazioni con SnapML. Lens Studio, da parte sua, offre ora anche miglioramenti nella rilevamento del viso, nuovi modelli per la gestualità gesti delle mani, e un’interfaccia utente aggiornata che semplifica a tutti la gestione dello strumento.

Molti di questi nuovi strumenti offrono opportunità di sfruttamento per i brand del fashion, che sono già per la maggior parte presenti su Snapchat. Lens Studio, ad esempio, sta rilasciando un modello di tracciamento dei piedi, basato su un machine learning di Wannaby, che offre agli sviluppatori l’opportunità di lanciare attivazioni ‘sperimentali’ per i brand di calzature.

È prevista infine un’anteprima di Local Lens, che è un aggiornamento della versione attuale, che consente di costruire mondi virtuali in Augmented Reality proprio sulla base degli elementi caratteristici del mondo reale.

La società sta infine implementando Snap Minis, un nuova modalità rivolta agli sviluppatori di integrare i contenuti media creati con HTML5 in Snapchat, inserendosi così nelle conversazioni degli utenti sulla piattaforma. Ad esempio, l’app di meditazione Headspace ha creato un Headspace Mini in cui lo Snapchatter può meditare insieme all’app e inviare messaggi agli amici dal suo interno, mentre con un’altra app, Atom, può invitare i propri amici ad acquistare biglietti per il cinema e guardare trailer di film.

Per mantenersi infine attiva in un settore che sta diventando molto vivace, Snapchat ha annunciato la fornitura gratuiti di crediti pubblicitari, per le imprese locali che stanno riaprendo l’attività dopo il blocco per il Coronavirus.