Intelligenza Artificiale e Intelligenza Umana - Parte 3

Intelligenza Artificiale e Intelligenza Umana
       Scritto da Michele Zubani

Intelligenza umana e intelligenza artificiale sono differenti in vari aspetti. Questo articolo prosegue l’analisi iniziata negli articoli precedenti per cercare di cogliere quali nuove possibilità in ambito industriale possano nascere quando umani e computer collaborano.

 

L’INTELLIGENZA ARTIFICIALE: UN VALIDO ALLEATO A SERVIZIO DELLA TUA INTELLIGENZA (Parte 3)

Nel precedente articolo abbiamo visto che le macchine sono brave a fare calcoli e gli umani ad assegnare un significato ai dati. Questa prima differenza permette all’essere umano di cogliere l’importanza dei problemi che si trova ad affrontare e alla macchina di calcolare la soluzione con precisione, risolvendo insieme più ostacoli di quanto ciascuno singolarmente possa fare. Come esempio abbiamo preso delle misurazioni provenienti da un tornio e addestrato un algoritmo di Machine Learning a capire come separarle tra misure che indicano un buon funzionamento e misure che indicano un cattivo funzionamento. Questo era il risultato:

È consigliabile leggere l’articolo precedente per poter capire meglio ciò che ora andremo a dire.  

 

La seconda differenza

La seconda differenza tra esseri umani e macchine è la struttura: i computer sono fatti per non cambiare mai, gli umani invece crescono col tempo. Un umano adulto non pensa come un bambino, invece rispolverando un computer degli anni ‘80 lo troverete invariato.

La mancanza di un supporto fisico che si evolve rende gli algoritmi di intelligenza artificiale piuttosto lenti ad adattarsi a modifiche nei dati forniti; sappiamo invece che in presenza di avvenimenti importanti (ancor più se traumatici) il cervello si modifica fisicamente, aggiornando le proprie sinapsi.

Consideriamo il computer di prima, a cui avevamo insegnato a riconoscere le misurazioni buone e cattive del tornio: quello che prima non ho detto è che per l’addestramento della macchina sarebbero servite parecchie misurazioni. Il motivo è semplice: pochi dati non rappresentano in modo efficace tutti le possibili risultati che saranno raccolti in futuro.

Se addestrassimo l’algoritmo su pochi dati potremmo avere un risultato di questo tipo:

In effetti la retta di separazione tra misure buone e misure cattive sembra funzionare bene, ma guardiamo cosa succede aggiungendo un’ulteriore punto:

L’algoritmo ha compiuto un errore nella valutazione del campione!

In generale non è un problema se il modello è leggermente impreciso perché l’importante è che sui grandi numeri sia abbastanza affidabile.

Perciò abbiamo bisogno di una quantità sufficientemente rappresentativa di dati, che permetta di minimizzare gli errori. Le misurazioni necessarie sono nell’ordine del centinaio per algoritmi semplici come quello di prima, ma potenzialmente migliaia per algoritmi più complessi (come reti neurali, catene di Markov nascoste o algoritmi genetici).

Un altro problema per gli algoritmi di Machine Learning è adattarsi a nuove condizioni: se il tornio cambiasse regime di funzionamento nel tempo e volessimo aggiornare l’addestramento del computer dovremmo probabilmente ricominciare da capo (come se gli azzerassimo la memoria) perché aggiungendo nuove misurazioni esso le mescolerebbe con quelle vecchie trovando ancora una retta sbagliata!

Infine anche fornire troppe misurazioni può essere rischioso perché porta al cosiddetto errore di “overfitting”, cioè il computer inizia a fare troppe distinzioni tra le varie misurazioni e perde di vista lo schema generale perdendosi in troppi dettagli.

Non è così per l’uomo per fortuna: se avvengono nuovi eventi egli è in grado di considerare ciò che è importante e scartare ciò che non lo è, adeguando ciò che sperimenta ora a ciò che imparò un tempo.

Pensate a un uomo nella giungla che venisse morso da una tigre e si salvasse miracolosamente: la prossima volta che vedesse una tigre scapperebbe all’istante, non gli servirebbe ripetere l’esperienza centinaia o migliaia di volte! O anche per essere meno drastici, non vi è mai capitato di riconoscere una persona per strada anche se l’avete vista una sola volta e non vi ricordate più il nome?

Ebbene algoritmi di riconoscimento facciale ci sono e sicuramente non imparano alla prima fotografia; il rovescio della medaglia è che l’uomo tende a dimenticare, mentre la macchina no.

Ecco che quindi un altro punto di forza dell’intelligenza umana è la capacità di supervisionare l’apprendimento di un’intelligenza artificiale testando la bontà del modello nel descrivere la realtà, al contrario l’intelligenza artificiale non perde memoria se non nel modo regolato dal suo programmatore.

Il grafico deve essere verificato dagli esperti

 

Nell’esempio del tornio, una volta fatta individuare la retta al computer, degli esperti dovranno controllare con che precisione la macchina riesca a classificare le nuove misurazioni in “buone” e “cattive”.

Una volta ottenuto un buon punteggio (più del 95% delle misurazioni è classificata correttamente) si potrà dire che l’algoritmo ha appreso in modo efficace e ci si potrà affidare al suo giudizio.

Vai alla quarta e ultima parte dell'articolo >>

 

 


CONDIVIDI:      

Aggiungi commento

Iscriviti alla nostra newsletter

Iscriviti per ricevere i nostri aggiornamenti.

Leggi l'informativa sulla privacy.

Lingua