AI intelligenza artificiale Deep Blue vs AlphaGo

UPDATE: alla fine dell’articolo la traduzione del post di GIZMODO

Questo è l’anno dell’intelligenza artificiale, della AI; è l’anno in cui la macchina batte l’uomo in creatività l’anno in cui la macchina cresce e si evolve come un uomo. Molti di voi si potranno chiedere: “ma non era stato già nel 1996?” quando Deep Blue, la macchina della IBM ha battuto Kasparov a scacchi?

No, e ci sono molte precisazioni da fare.

Garry Kasparov fu battuto a scacchi da un computer che aveva immagazzinato le mosse di tutte le partite giocate fino a quel momento ed era pronto ad attuare strategie su esperienze passate per vincere. Quest’anno la sfida uomo – macchina si presentava sotto la forma del più diffuso gioco asiatico: Go.

Le combinazioni di mosse effettuabili su Go sono infinite, non esistono schemi, ogni partita è un mondo a parte, un ecosistema indipendente. AlphaGo, la macchina in intelligenza di google non ha studiato le regole del gioco: ha fatto esperienza giocando, come un bambino. AlphaGo ha vinto ‘spiazzando’ l’avversario con una mossa innovativa, creando qualcosa di nuovo.

A fine Aprile di quest’anno Sergei Brin di Alphabet (https://abc.xyz/) ha dichiarato che il MIT è riuscita a riprodurre l’esperienza reattiva della corteccia cerebrale umana ai suoni su un dispositivo in intelligenza artificiale il che significa: distinguere un suono in mezzo al rumore, riconoscere un genere musicale, scegliere cosa ascoltare e, il tutto, su un processo di apprendimento e , quindi, autoscrittura della conoscenza. Si parla praticamente di una nuova forma di vita.

Immaginate le implicazioni che questo approccio sistemico sulla robotica potrebbe creare, consapevoli che il codice della ricerca è in mano alla maggiore superpotenza mondiale in quanto ad armamenti e che, chi deciderà le applicazioni del software, sono le stesse persone che preferiscono le macchine belliche agli ospedali, il profitto alla salute.

Le cose sono andate cosi:

 

Dettagli:

Algoritmo

L’algoritmo impiegato da AlphaGo usa una combinazione di machine learning e tecniche di ricerca su alberi, insieme ad un’estensiva fase di apprendimento da gioco sia umano sia artificiale. Utilizza la ricerca ad albero Monte Carlo (MCTS) per la selezione delle mosse, guidata da due reti neurali profonde (value network e policy network). Prima di essere inviato alle reti neurali, l’input è analizzato in una fase di pre-processing per estrarre alcune feature (ad esempio l’aderenza delle mosse a una serie di pattern comuni).

Nella prima fase del training le reti neurali effettuano un apprendimento supervisionato basato sul gioco umano, tentando di imitarlo usando un database di circa 30 milioni di mosse da partite storiche. Una volta raggiunta una certa forza di gioco, l’apprendimento prosegue per rinforzo giocando contro altre istanze di sé stesso.

Il software è programmato per abbandonare la partita se la probabilità di vittoria scende al di sotto di una certa soglia, che ad esempio nell’incontro del marzo 2016 con Lee Sedol era fissata al 20%

Da gizmodo:

I dipendenti di Google si dimettono in protesta contro il contratto del Pentagono

Sono passati quasi tre mesi da quando molti dipendenti di Google – e il pubblico – hanno appreso della decisione dell’azienda di fornire intelligenza artificiale a un controverso programma pilota militare noto come Project Maven, che mira ad accelerare l’analisi delle riprese drone classificando automaticamente le immagini di oggetti e persone. Ora, circa una dozzina di dipendenti di Google si dimettono in segno di protesta per il continuo coinvolgimento della società in Maven.

Le frustrazioni dei dipendenti rassegnati vanno da particolari preoccupazioni etiche sull’uso dell’intelligenza artificiale nella guerra dei droni a preoccupazioni più ampie sulle decisioni politiche di Google e sull’erosione della fiducia degli utenti che potrebbe derivare da queste azioni. Molti di loro hanno scritto resoconti delle loro decisioni di lasciare la società, e le loro storie sono state raccolte e condivise in un documento interno, il cui contenuto è stato descritto da più fonti a Gizmodo.

I dipendenti che si dimettono per protesta, molti dei quali hanno discusso la loro decisione di partire con Gizmodo, affermano che i dirigenti sono diventati meno trasparenti con le loro forze di lavoro su decisioni commerciali controverse e sembrano meno interessati ad ascoltare le obiezioni dei lavoratori rispetto a prima. Nel caso di Maven, Google sta aiutando il Dipartimento della Difesa ad implementare l’apprendimento automatico per classificare le immagini raccolte dai droni. Ma alcuni dipendenti credono che gli esseri umani, e non gli algoritmi, dovrebbero essere responsabili di questo lavoro sensibile e potenzialmente letale, e che Google non dovrebbe essere coinvolto nel lavoro militare.

Storicamente, Google ha promosso una cultura aperta che incoraggia i dipendenti a sfidare e discutere le decisioni sui prodotti. Ma alcuni dipendenti ritengono che la loro leadership non sia più attenta alle loro preoccupazioni, lasciandoli ad affrontare le conseguenze. “Negli ultimi due mesi, sono stato sempre meno impressionato dalla risposta e dal modo in cui le preoccupazioni delle persone vengono trattate e ascoltate”, ha detto un dipendente che si è dimesso.

C’è un precedente per il pushback dei dipendenti con conseguenti modifiche ai prodotti: nel 2015, dipendenti e utenti hanno contestato con successo il divieto di Google di contenuti sessualmente espliciti pubblicati su Blogger. Ma queste sono le prime note dimissioni di massa a Google in segno di protesta contro una delle decisioni aziendali della società, e parlano delle preoccupazioni etiche fortemente sentite dei dipendenti in partenza.

Oltre alle dimissioni, quasi 4.000 dipendenti di Google hanno espresso la loro opposizione al Progetto Maven in una petizione interna che chiede a Google di annullare immediatamente il contratto e di istituire una politica contro l’assunzione di futuri lavori militari.

Tuttavia, la crescente pressione da parte dei dipendenti sembra aver fatto poco per influenzare la decisione di Google – la società ha difeso il suo lavoro su Maven e si pensa che sia uno dei principali contendenti per un altro importante contratto di cloud computing del Pentagono, Joint Enterprise Defense Infrastructure, meglio noto come JEDI , che è attualmente in attesa di offerte.

Le richieste dei dipendenti di porre fine al contratto del Pentagono da parte di Google sono anche complicate dal fatto che Google afferma che sta solo fornendo software open source a Project Maven, il che significa che i militari sarebbero ancora in grado di utilizzare la tecnologia, anche se Google non ha accettato pagamento o offrire assistenza tecnica.

Tuttavia, i dipendenti dimissionari ritengono che il lavoro di Google su Maven sia fondamentalmente in contrasto con i principi di buonismo della società. “Non è come Google è questa piccola startup di apprendimento automatico che sta cercando di trovare clienti in diversi settori”, ha detto un dipendente dimissionario. “Sembra che sia logico che Google e la reputazione di Google rimangano fuori da questo”.

Molti dipendenti di Google hanno appreso per la prima volta che la società stava lavorando a Maven quando la notizia del controverso progetto ha iniziato a diffondersi internamente a fine febbraio. All’epoca, un portavoce di Google ha dichiarato a Gizmodo che la società stava elaborando “politiche e salvaguardie” sul suo uso dell’apprendimento automatico, ma che il documento politico non è ancora stato realizzato, hanno riferito fonti.

Un dipendente ha spiegato che gli staff di Google avevano promesso un aggiornamento sulla politica etica entro poche settimane, ma che il progresso sembrava essere bloccato in un modello di partecipazione. Le preoccupazioni etiche “avrebbero dovuto essere affrontate prima di entrare in questo contratto”, ha detto il dipendente.

Google ha sottolineato che la sua intelligenza artificiale non viene utilizzata per uccidere, ma l’uso dell’intelligenza artificiale nel programma dei droni del Pentagono solleva ancora complesse questioni etiche e morali per i tecnici e gli accademici che studiano il campo dell’apprendimento automatico.

Oltre alla petizione che circolava su Google, la Tech Workers Coalition ha lanciato una petizione ad aprile chiedendo che Google abbandonasse il suo lavoro su Maven e che altre importanti aziende tecnologiche, tra cui IBM e Amazon, rifiutassero di lavorare con il Dipartimento della Difesa degli Stati Uniti.

“Non possiamo più ignorare i pregiudizi dannosi della nostra industria e delle nostre tecnologie, violazioni su larga scala della fiducia e mancanza di garanzie etiche”, si legge nella petizione. “Queste sono la posta in gioco per la vita e la morte.”

Più di 90 accademici dell’intelligenza artificiale, dell’etica e dell’informatica hanno rilasciato oggi una lettera aperta che invita Google a terminare il suo lavoro sul Progetto Maven e a sostenere un trattato internazionale che vieta sistemi di armi autonomi. Peter Asaro e Lucy Suchman, due degli autori della lettera, hanno testimoniato davanti alle Nazioni Unite sulle armi autonome; un terzo autore, Lilly Irani, è un professore di scienze e un ex dipendente di Google.

I contributi di Google al Progetto Maven potrebbero accelerare lo sviluppo di armi completamente autonome, ha detto Suchman a Gizmodo. Anche se Google ha sede negli Stati Uniti, ha l’obbligo di proteggere la sua base di utenti globali che supera il suo allineamento con i militari di ogni singola nazione, ha detto.

“Se l’azione etica da parte delle aziende tecnologiche richiede di considerare chi potrebbe trarre beneficio da una tecnologia e chi potrebbe essere danneggiato, allora possiamo dire con certezza che nessun argomento merita una riflessione più sobria – nessuna tecnologia ha interessi più alti – di algoritmi pensati per e uccidere a distanza e senza responsabilità pubblica “, afferma la lettera. “Google è passata al lavoro militare senza sottoporsi a discussioni o deliberazioni pubbliche, a livello nazionale o internazionale. Mentre Google decide regolarmente il futuro della tecnologia senza impegno pubblico democratico, il suo ingresso nelle tecnologie militari risolve i problemi del controllo privato dell’infrastruttura informatica in alto rilievo “.

I dirigenti di Google hanno fatto sforzi per difendere il Progetto Maven ai dipendenti. In una riunione poco dopo che il progetto è diventato pubblico, l’amministratore delegato di Google Cloud Diane Greene ha parlato a sostegno del progetto Maven, hanno riferito diverse fonti a Gizmodo. Più recentemente, Greene e altri dipendenti hanno ospitato diverse sessioni per discutere e discutere del progetto. Queste sessioni hanno visto relatori che hanno sostenuto e si sono opposti a Maven e hanno sottolineato la difficoltà di elaborare una politica sull’uso etico dell’apprendimento automatico, ha spiegato un partecipante.

Ci sono altre preoccupazioni reputazionali che riguardano le decisioni dei dipendenti di lasciare Google. Il recente pasticcio politico della compagnia, come la sua sponsorizzazione della Conferenza di azione politica conservatrice e la sua lotta per affrontare i problemi di diversità interna , hanno anche avuto un ruolo.

 

Annunci