Tecnologie | di Sbertani
Il futuro delle app e degli smartphone
Ebbene si, siamo schiavi delle app e delle interfacce utente, spesso poco pratiche e poco intuitive. Capita talvolta di trovarne alcune talmente complesse da escludere potenziali utenti poco informatizzati. Nel gergo, sono applicazioni con una User experience non proprio ottimizzata.
A parte alcuni servizi ottimizzati per gli schermi desktop che, aperti sui computer, possono risultare più semplici in quanto capaci di sfruttare lo spazio garantito dallo schermo più ampio, sui nostri tecnologici telefoni le app sono nella maggior parte dei casi l’unica strada disponibile.
Ma quali sono i punti deboli dell’idea che si nasconde dietro queste applicazioni?
Prima di tutto la mancanza di uno standard vero e non sto parlando dei linguaggi di programmazione con i quali vengono realizzate. Se è vero che oramai alcune funzioni sono state uniformate - per esempio l’iconcina delle “impostazioni” o il comando “burger” per aprire i menu - le interfacce grafiche e le logiche di funzionamento di un’app sono spesso diverse e poco comprensibili al primo utilizzo.
Inoltre, per arrivare ad utilizzarle nella loro interezza, richiedono di svolgere diversi passaggi obbligatori rendendo di conseguenza l’esperienza d’uso poco efficiente.
Per fare un esempio, pensando di vedere un film sul nostro telefono o tv di casa - ma anche ascoltare un brano, ordinare del cibo o acquistare un prodotto su uno dei qualsiasi marketplace disponibili - dobbiamo scegliere l’app, installarla, registrarci impostando un account con l’ennesima password e configurare il nostro profilo. Se a tutto questo aggiungiamo un’interfaccia non proprio user friendly, ci rendiamo subito conto che non può essere una soluzione definitiva.
Le grandi aziende ci stanno infatti lavorando e hanno già messo sul tavolo diverse soluzioni. Certo, non sono ancora prodotti che possiamo comprare nel centro commerciale sotto casa, ma la strada è stata tracciata.
Sfruttando la machine learning, un sottoinsieme dell'intelligenza artificiale attraverso la quale i computer imparano dai dati e migliorano con l'esperienza senza essere appositamente programmati, l’idea è costruire applicazioni appunto di AI per interpretare le interfacce utente dei vari servizi online in modo che, attraverso un semplice comando vocale, il software possa lavorare al nostro posto.
Tornando all’esempio del film che vogliamo vedere, basterebbe dire “telefono fammi vedere questo film sul tv della sala”. L’applicazione di machine learning cercherà il miglior servizio di streaming video mostrandoci il costo del servizio. Approvato l’importo sarà la stessa applicazione ad attivarlo in automatico e proporci il contenuto desiderato sul televisore.
Diventa di conseguenza facile pensare come questo approccio possa risultare utile soprattutto su dispositivi oggi apparentemente “limitati” dalla mancanza di uno schermo touch screen come i classici dispositivi indossabili. Si parla di orologi, occhiali o semplici spille digitali.
Noi inviamo un comando vocale e il dispositivo lavora per noi.
La strada è tracciata: non ci resta che attendere.
A parte alcuni servizi ottimizzati per gli schermi desktop che, aperti sui computer, possono risultare più semplici in quanto capaci di sfruttare lo spazio garantito dallo schermo più ampio, sui nostri tecnologici telefoni le app sono nella maggior parte dei casi l’unica strada disponibile.
Ma quali sono i punti deboli dell’idea che si nasconde dietro queste applicazioni?
Prima di tutto la mancanza di uno standard vero e non sto parlando dei linguaggi di programmazione con i quali vengono realizzate. Se è vero che oramai alcune funzioni sono state uniformate - per esempio l’iconcina delle “impostazioni” o il comando “burger” per aprire i menu - le interfacce grafiche e le logiche di funzionamento di un’app sono spesso diverse e poco comprensibili al primo utilizzo.
Inoltre, per arrivare ad utilizzarle nella loro interezza, richiedono di svolgere diversi passaggi obbligatori rendendo di conseguenza l’esperienza d’uso poco efficiente.
Per fare un esempio, pensando di vedere un film sul nostro telefono o tv di casa - ma anche ascoltare un brano, ordinare del cibo o acquistare un prodotto su uno dei qualsiasi marketplace disponibili - dobbiamo scegliere l’app, installarla, registrarci impostando un account con l’ennesima password e configurare il nostro profilo. Se a tutto questo aggiungiamo un’interfaccia non proprio user friendly, ci rendiamo subito conto che non può essere una soluzione definitiva.
Le grandi aziende ci stanno infatti lavorando e hanno già messo sul tavolo diverse soluzioni. Certo, non sono ancora prodotti che possiamo comprare nel centro commerciale sotto casa, ma la strada è stata tracciata.
Sfruttando la machine learning, un sottoinsieme dell'intelligenza artificiale attraverso la quale i computer imparano dai dati e migliorano con l'esperienza senza essere appositamente programmati, l’idea è costruire applicazioni appunto di AI per interpretare le interfacce utente dei vari servizi online in modo che, attraverso un semplice comando vocale, il software possa lavorare al nostro posto.
Tornando all’esempio del film che vogliamo vedere, basterebbe dire “telefono fammi vedere questo film sul tv della sala”. L’applicazione di machine learning cercherà il miglior servizio di streaming video mostrandoci il costo del servizio. Approvato l’importo sarà la stessa applicazione ad attivarlo in automatico e proporci il contenuto desiderato sul televisore.
Diventa di conseguenza facile pensare come questo approccio possa risultare utile soprattutto su dispositivi oggi apparentemente “limitati” dalla mancanza di uno schermo touch screen come i classici dispositivi indossabili. Si parla di orologi, occhiali o semplici spille digitali.
Noi inviamo un comando vocale e il dispositivo lavora per noi.
La strada è tracciata: non ci resta che attendere.
Letture: 224 | Allegati: 0
Aggiornato il 16-01-2024