logo Ufficiomarketing.it
MENU

Tecnologie | Post di Sbertani

L'intelligenza artificiale oggi, spiegata in modo semplice

L'intelligenza artificiale (AI) è un ramo dell'informatica che studia come creare macchine intelligenti in grado di eseguire compiti che normalmente richiederebbero l'intelligenza umana. L'AI ha già un'ampia gamma di applicazioni, che spaziano dalla medicina all'automazione, dalla finanza alla robotica. Il suo compito è permettere la realizzazione di applicazioni "intelligenti", cioè in grado di eseguire compiti che normalmente richiederebbero l’intervento umano. Ma a che punto siamo?

Intanto è importante sottolineare che le origini dell'AI risalgono agli anni Cinquanta quando il matematico britannico Alan Turing pubblicò l'articolo "Computing Machinery and Intelligence". In questo articolo, Turing propose un test per determinare se una macchina fosse intelligente. Il test, noto come Test di Turing, consiste nel far interagire un essere umano con una macchina: se l'essere umano non riesce a distinguere la macchina dall'altro essere umano, allora la macchina si considera intelligente.

Ma siamo già arrivati a questo punto?

Se negli anni Sessanta assistiamo a progressi significativi con lo sviluppo di algoritmi di apprendimento automatico e di ragionamento, negli anni Novanta l'AI inizia ad essere utilizzata in applicazioni pratiche, come per il riconoscimento delle immagini e il riconoscimento vocale. Ma è stato l'arrivo degli algoritmi detti di Machine learning a dare la svolta negli anni Duemila: una serie di metodi di apprendimento automatico che ci stanno portando dritti verso il Deep learning (apprendimento profondo) e alle reti neurali, permettendoci così di raggiungere notevoli risultati per una varietà di nuove rivoluzionarie applicazioni.

Semplificando il più possibile e senza scomodare la famosa conferenza di Darthmouth del 1956 (gli interessati possono cercarla sul web), oggi si parla solamente della cosiddetta "weak AI" o "AI debole/ristretta", cioè sistemi basati su algoritmi di AI ai quali delegare alcune attività umane per risolvere specifici problemi. Siri, Cortana, e l'Assistente Google sono tutti esempi di AI ristretta in quanto operano attraverso una serie limitata e ben definita di funzioni anche se certamente di tutto rispetto. Il resto è ancora "fantascienza".

Ma come funziona questa AI?

Cercando come sempre di semplificare il più possibile, l'aspetto più interessante da approfondire riguarda le tecniche apprendimento, o di Machine learning (apprendimento automatico) che rendono difatti questa tecnologia riconducibile ad una sorta di "intelligenza". L'apprendimento automatico è infatti un processo attraverso il quale un algoritmo acquisisce conoscenze da una serie di dati da elaborare, migliorando le sue prestazioni in modo adattivo, ossia man mano che nel tempo aumentano i dati sui quali fare apprendimento. Questo si potrebbe tradurre nel fatto che le macchine apprestate per svolgere un dato compito sono in grado di imparare a svolgerlo sempre meglio. Penso a certi strumenti diagnostici che sono in grado di individuare patologie con sempre maggiore efficacia, in funzione del sempre maggiore numero di immagini storiche trattate.

Il Machine Learning si fonda su una serie di metodi di apprendimento.

Il Supervised learning (apprendimento supervisionato) è un tipo di apprendimento automatico in cui l'algoritmo viene fornito con un set di dati di input e output. L'algoritmo impara a correlare gli input con gli output, in modo da poter prevedere il valore dell'output per nuovi successivi input.
Per fare un esempio, l'algoritmo viene impostato con una serie di immagini tra le quali quelle che ritraggono dei gatti. L'algoritmo impara a correlare le caratteristiche delle immagini con la classe di appartenenza (gatto o non gatto) di sua conoscenza, riuscendo così, successivamente, a riconoscere se una nuova immagine contiene effettivamente un gatto. Gli algoritmi di classificazione e di regressione (ambito finanziario) sfruttano questo metodo.

L'Unsupervised learning (apprendimento non supervisionato) è un tipo di apprendimento automatico in cui l'algoritmo non viene fornito con un set di dati di output e pertanto l'algoritmo impara a raggruppare i dati in base a delle caratteristiche comuni.
Ad esempio, l'algoritmo viene impostato per raggruppare le immagini di persone in base alla loro età. L'algoritmo impara a identificare le caratteristiche comuni nelle immagini e quindi a raggruppare nuove immagini di persone in base alla loro età. Il clustering e le tipiche analisi associative sfruttano questo metodo.

Il Reinforcement learning (apprendimento per rinforzo), a differenza dei precedenti metodi, è dipendente dallo stato del sistema. L'apprendimento avviene attraverso segnali di ricompensa positivi o negativi, intesi come indici della qualità dell’azione e dello stato in cui ci si trova. Opera per risolvere problemi attraverso decisioni sequenziali, per cui l'azione da compiere dipende dallo stato attuale del sistema e dal segnale che ne determina lo stato successivo. Algoritmi di guida assistita, in ambito sanitario o anche nel marketing strategico sfruttano proprio questo metodo.

A tutto questo andrebbero aggiunte le tecniche di Ragionamento, processi attraverso i quali un algoritmo arriva a una conclusione partendo da una serie di premesse.

Gli algoritmi di ragionamento possono essere classificati in due categorie principali: deduttivo e induttivo. Il Ragionamento deduttivo è un tipo di ragionamento in cui la conclusione è inevitabile dalle premesse. Ad esempio, se le premesse sono Tutte i gatti sono animali" e "Questo è un gatto", la conclusione inevitabile sarà "Questo è un gatto ed è un animale". Il Ragionamento induttivo è invece un tipo di ragionamento in cui la conclusione è probabile. Ad esempio, se la premessa è "Tutti i cani riprodotti nelle immagini sono marroni", probabilmente "Il prossimo cane che vedrò in una immagine sarà marrone".

La differenza fondamentale tra l'intelligenza artificiale di oggi e una "vera" intelligenza artificiale è che l'AI attuale è limitata dal set di dati su cui è stata addestrata. Non a caso si parla di intelligenza "data-centrica": un macchinario oggi può risultare di grande aiuto in quanto è in grado di interpretare informazioni comparandole con un numero esorbitante di dati pre immagazzinati tanto da evidenziare, per esempio, in pochissimo tempo alterazioni o variazioni rispetto a degli standard. Oppure di scrivere un testo prendendo spunto da tutta una serie di informazioni memorizzate nel web, riconoscere delle immagini e crearne di nuove oppure percorrere in automobile una strada anticipando avvenimenti già preventivamente simulati.

Un'intelligenza artificiale, invece, dovrebbe essere in grado di comprendere il mondo e prendere decisioni in modo autonomo, anche in situazioni nuove e impreviste. Per fare questo è ancora necessario affrontare una serie di sfide. Una criticità, come avvenuto per certi versi negli anni Settanta, è la mancanza di dati sufficienti. Gli algoritmi di AI hanno bisogno di grandi quantità di dati per imparare e migliorare e per questo motivo, oggi, la ricerca di dati comportamentali è fondamentale per molte aziende che, per raccoglierli, offrono servizi "apparentemente" gratuiti.

Quando oggi si parla di Deep learning si parla di modelli che si basano sulle innovative reti neurali: algoritmi che operano imitando, anche se ancora approssimativamente, il funzionamento del cervello umano ma che hanno, ancora come limite, il bisogno di immense mole di dati da elaborare. Sto parlando di applicazioni nel campo della visione artificiale, del riconoscimento vocale, per l'elaborazione del linguaggio naturale (NLP) e per le applicazioni cosiddette di raccomandazione che man mano si stanno evolvendo.. Non a caso molti prodotti vengono oggi realizzati attraverso algoritmi di intelligenza artificiale ottenendo, tra l’altro, risultati stupefacenti.

Un'altra sfida da affrontare è la complessità del mondo dove viviamo in quanto luogo complesso e imprevedibile anche per noi esseri umani. Gli algoritmi di AI dovranno essere in grado di comprendere e adattarsi a questa complessità.

In conclusione, gli algoritmi utilizzati oggi nell'intelligenza artificiale sono una forma di intelligenza artificiale artificiosa, limitata. Sono in grado di eseguire compiti che richiedono una porzione di quella che noi chiamiamo "intelligenza umana", ma non sono ancora in grado di pensare e ragionare in modo autonomo. Sono una sorta di grande motore di ricerca - gli addetti ai lavori mi criticheranno sicuramente per questa definizione - capaci di comparare ed elaborare dati e quindi ritornare risposte articolate.

Ma se provassimo a chiedere alle più diffuse AI - attraverso i relativi servizi web oggi disponibili - un consiglio su un prodotto, probabilmente oggi la nostra "intelligenza" risponderebbe proponendoci il prodotto più diffuso sul web. Questo perché andrebbe, per ovvie ragioni, a "leggere" i dati presenti in rete (il suo database di dati) trovando per primo il più pubblicizzato e commentato sulla rete. Possiamo parlare di "Intelligenza artificiale" o di "simulazione di intelligenza"? A voi la risposta.

Nonostante le sfide, l'intelligenza artificiale ha il potenziale per rivoluzionare il modo in cui viviamo e lavoriamo, per rendere le nostre vite più facili, più sicure e più produttive. Ci sostituirà? Almeno non a breve, anche se, come sempre è accaduto in altri ambiti, quando l’innovazione arriva sul mercato e viene resa disponibile per noi utenti, è già superata e nei vari laboratori qualcosa di nuovo è già pronto.


Letture: 167 | Allegati: 0 | Commenti: 0
Aggiornato il 24-11-2023

Post per Categoria

Segui Ufficiomarketing.it sui social