In che modo l'intelligenza artificiale cambierà la nostra vita, per il meglio o il peggio
Se hai prestato attenzione ai media nell'ultimo anno o giù di lì, potresti avere l'impressione che sia solo una questione di tempo prima che la minaccia dell'intelligenza artificiale venga a distruggerci tutti.
Nota del redattore: questo è un punto di partenza dal nostro normale formato tecnico e esplicativo in cui lasciamo che i nostri scrittori facciano ricerche e presentino uno sguardo stimolante alla tecnologia.
Dai grandi blockbuster estivi come Avengers: Age of Ultron e Transcendence di Johnny Depp, a film indipendenti più piccoli come Ex-Machina o il film drammatico di Channel 4 Humans, gli sceneggiatori non riescono a ottenere abbastanza del tropo che non importa quale forma AI ci vorranno nei prossimi decenni, puoi scommettere che sarà deciso a insegnare all'umanità una lezione sul cadere vittima della propria arroganza.
Ma qualcuna di queste paure delle macchine è giustificata? In questa funzione, esamineremo il mondo dell'IA dal punto di vista di scienziati, ingegneri, programmatori e imprenditori che lavorano oggi sul campo e riducono quella che secondo loro potrebbe essere la prossima grande rivoluzione dell'intelligenza umana e informatica.
Quindi, dovresti iniziare a fare scorta di proiettili per la prossima guerra con Skynet, o alzare i piedi mentre un esercito di droni asserviti si prende cura di ogni tuo capriccio? Continuate a leggere per scoprirlo.
Conosci il tuo nemico
Per iniziare, aiuta a sapere di cosa stiamo parlando esattamente quando usiamo il termine generico "AI". La parola è stata gettata in giro e ridefinita un centinaio di volte da quando il concetto di computer autocoscienti fu proposto per la prima volta dal padre non ufficiale di IA, John McCarthy, nel 1955 ... ma cosa significa veramente??
Bene, prima di tutto, i lettori dovrebbero sapere che l'intelligenza artificiale, così come la intendiamo oggi, rientra in realtà in due categorie distinte: "ANI" e "AGI".
Il primo, abbreviazione di Artificial Narrow Intelligence, comprende quella che viene generalmente definita IA "debole", o un'IA che può operare solo in un'area ristretta di specializzazione. Think Deep Blue, il supercomputer progettato da IBM per sconfiggere i chessmasters del mondo nel 1997. Deep Blue può fare una cosa veramente bene: battere gli umani a scacchi ... ma è tutto qui.
Potresti non rendertene conto, ma siamo già circondati da ANI nelle nostre vite quotidiane. Le macchine che tracciano le tue abitudini di acquisto su Amazon e generano raccomandazioni basate su migliaia di variabili diverse sono costruite su ANI rudimentali che "apprendono" ciò che ti piace nel tempo e scelgono di conseguenza prodotti simili. Un altro esempio potrebbero essere i filtri antispam personali per posta elettronica, i sistemi che selezionano contemporaneamente milioni di messaggi per decidere quali sono reali e quali sono i rumori aggiuntivi che possono essere spostati di lato.
L'ANI è l'utile e relativamente innocua implementazione dell'intelligenza artificiale di cui tutta l'umanità può trarre vantaggio, perché sebbene sia in grado di elaborare miliardi di numeri e richieste alla volta, funziona ancora all'interno di un ambiente limitato che è limitato dal numero di transistor che permettiamo avere in qualsiasi momento. D'altra parte, l'intelligenza artificiale a cui siamo sempre più diffidenti è chiamata "Intelligenza generale artificiale", o AGI.
Allo stato attuale, la creazione di qualsiasi cosa che possa essere definita a distanza come AGI rimane il Santo Graal dell'informatica e, se raggiunta, potrebbe modificare fondamentalmente tutto ciò che riguarda il mondo come lo conosciamo. Ci sono molti ostacoli a superare la sfida di creare una vera AGI alla pari con la mente umana, non ultimo il fatto che, sebbene ci siano molte somiglianze tra il modo in cui il nostro cervello funziona e il modo in cui i computer elaborano le informazioni, quando scende interpretare realmente le cose nel modo in cui facciamo; le macchine hanno la cattiva abitudine di rimanere appese ai dettagli e mancano la foresta per gli alberi.
"Ho paura di non potercela fare, Bullsh * t, Dave"
Quando il computer Watson di IBM ha notoriamente imparato a maledire dopo aver letto attraverso il dizionario urbano, abbiamo acquisito una comprensione di quanto siamo lontani da un'intelligenza artificiale veramente capace di cogliere le minuzie dell'esperienza umana e di creare un'immagine precisa di ciò che "Pensiero" dovrebbe essere fatto di.
Vedi, durante lo sviluppo di Watson, gli ingegneri stavano avendo problemi a cercare di insegnargli un modello naturale di discorso che emulasse più da vicino il nostro, piuttosto che quello di una macchina grezza che parlava in frasi perfette. Per risolvere il problema, hanno pensato che sarebbe stata una buona idea eseguire l'intero dizionario urbano attraverso le sue banche di memoria, subito dopo che Watson ha risposto a uno dei test della squadra chiamandolo "bullsh * t".
L'enigma qui è che anche se Watson sapeva che stava imprecando e che quello che stava dicendo era offensivo, non capiva del tutto perché non si supponeva che usasse quella parola, che è la componente critica che separa l'ANI standard di oggi dall'evolversi nell'Aghi di domani. Certo, queste macchine possono leggere fatti, scrivere frasi e persino simulare la rete neurale di un topo, ma quando si tratta di capacità di giudizio critico e giudizio, l'intelligenza artificiale di oggi è ancora in ritardo dietro la curva.
Quel divario tra conoscenza e comprensione non è altro che starnutire, ed è quello a cui i pessimisti puntano quando si sostiene che siamo ancora lontani dal creare un'AGI capace di conoscere se stessa come facciamo noi. È un enorme abisso, che né gli ingegneri informatici né gli psicologi umani potrebbero sostenere di avere nella definizione moderna di ciò che rende un essere cosciente, bene, consapevole.
Che cosa succede se Skynet diventa auto-consapevole?
Ma, anche se in qualche modo riusciremo a creare un AGI nel prossimo decennio (che è piuttosto ottimistico date le attuali proiezioni), dovrebbe essere tutto sommato da lì in poi, giusto? Gli esseri umani che vivono con l'intelligenza artificiale, l'intelligenza artificiale sono in bilico con gli umani nei fine settimana dopo una lunga giornata nella fabbrica di macinatura del numero. Fai le valigie e abbiamo finito qui?
Spero che non siamo solo il boot loader biologico per la superintelligenza digitale. Sfortunatamente, questo è sempre più probabile
- Elon Musk (@elonmusk), 3 agosto 2014
Bene, non proprio. C'è ancora un'ultima categoria di AI rimasta, ed è quella che tutti i film e i programmi televisivi hanno cercato di avvertirci da anni: ASI, altrimenti nota come "super intelligenza artificiale". In teoria, un ASI sarebbe nato da una AGI che si agitava con il suo destino nella vita, e che prendeva la decisione premeditata di fare qualcosa per conto suo senza il nostro permesso. La preoccupazione che molti ricercatori del settore hanno proposto è che una volta che un AGI raggiunge la sensibilità, non si accontenterà di ciò che ha, e farà tutto il possibile per aumentare le proprie capacità con ogni mezzo necessario.
Una possibile linea temporale è la seguente: gli esseri umani creano la macchina, la macchina diventa intelligente come gli umani. La macchina, che ora è intelligente come gli umani che hanno creato una macchina intelligente come loro (seguitemi qui), impara l'arte dell'auto-replicazione, dell'autoevoluzione e dell'auto-miglioramento. Non si stanca, non si ammala e può crescere all'infinito mentre il resto di noi sta ricaricando le batterie a letto.
Il timore è che sarebbe solo questione di pochi nanosecondi prima che un AGI superasse facilmente l'intelligenza di tutti gli esseri umani che vivono oggi e, se connesso al web, avrebbe solo bisogno di essere un neurone simulato più intelligente di quello che l'hacker più intelligente del mondo controllo di ogni sistema connesso a Internet sul pianeta.
Una volta ottenuto il controllo, potrebbe avere il potenziale per usare il suo potere per iniziare lentamente ad accumulare un esercito di macchine ugualmente intelligenti come il suo creatore e in grado di evolversi ad un ritmo esponenziale via via che sempre più nodi vengono aggiunti alla rete. Da qui, tutti i modelli disegnati sulla curva dell'intelligenza della macchina irrompono prontamente sul tetto.
Detto questo, tuttavia, sono principalmente basati sulla speculazione piuttosto che su qualcosa di tangibile. Questo lascia un sacco di spazio per l'assunzione a nome di dozzine di esperti diversi su entrambi i lati della questione, e anche dopo anni di accesi dibattiti, non c'è ancora consenso comune sul fatto che un ASI sarà o un dio misericordioso, o vedere gli umani come le specie che bruciano il carbone e che si nutrono di cibo che siamo e ci cancellano dai libri di storia come scrostiamo una scia di formiche dal bancone della cucina.
Ha detto, ha detto: dovremmo avere paura?
Quindi, ora che capiamo cos'è l'intelligenza artificiale, le diverse forme che potrebbe richiedere nel tempo e come quei sistemi potrebbero diventare parte della nostra vita nel prossimo futuro, la domanda rimane: dovremmo avere paura?
Sull'onda dello stimolante interesse del pubblico per l'intelligenza artificiale nell'ultimo anno, molti dei migliori scienziati, ingegneri e imprenditori del mondo hanno colto l'occasione per dare i loro due centesimi su ciò che l'intelligenza artificiale potrebbe effettivamente apparire al di fuori delle fasi sonore di Hollywood nei prossimi decenni.
Da un lato, ci sono gli oscuri e doomers come Elon Musk, Stephen Hawking e Bill Gates, i quali condividono la preoccupazione che senza le opportune misure di sicurezza messe in atto, sarà solo una questione di tempo prima di un ASI sogna un modo per spazzare via la razza umana.
"Si può immaginare che una tale tecnologia stia superando i mercati finanziari, inventando ricercatori umani, manipolando i leader umani e sviluppando armi che non siamo nemmeno in grado di comprendere", ha scritto Hawking in una lettera aperta alla comunità di AI quest'anno.
"Mentre l'impatto a breve termine dell'IA dipende da chi lo controlla, l'impatto a lungo termine dipende dal fatto che possa essere controllato a tutti."
Dall'altro, troviamo un ritratto più luminoso dipinto da futuristi come Ray Kurzweill, il ricercatore capo di Microsoft, Eric Horovitz, e tutti altro fondatore di Apple preferito; Steve Wozniak. Sia Hawking che Musk sono considerati due dei più grandi menti della nostra generazione, quindi mettere in discussione le loro previsioni sul danno che la tecnologia potrebbe causare a lungo termine non è un'impresa facile. Ma lascialo ai luminari come Wozniak per intervenire dove gli altri oserebbero.
Quando gli è stato chiesto come crede che un ASI possa trattare gli umani, il Woz è stato ottuso nel suo ottimismo sfumato: "Saremo gli dei? Saremo gli animali domestici di famiglia? O saremo formiche su cui verremo calpestati? Non lo so ", ha chiesto in un'intervista con l'Australian Financial Review. "Ma quando mi sono messo a pensare che se dovessi essere trattato in futuro da animale domestico con queste macchine intelligenti ... beh, ho intenzione di trattare il mio cane molto bello."
Ed è qui che troviamo il dilemma filosofico sul fatto che nessuno è del tutto a nostro agio nel raggiungere un consenso: un ASI ci vedrà come un innocuo housepet da coccolare e curare, o un indesiderato parassita che merita uno sterminio rapido e indolore?
Hasta la Vista, Baby
Anche se sarebbe una scusa sciocca pretendere di sapere esattamente cosa sta succedendo nella vita reale di Tony Stark, penso che quando Musk e amici ci mettono in guardia sul pericolo dell'IA, non si riferiscono a nulla che assomigli al Terminator , Ultron o Ava.
Anche con immense quantità di innovazione a portata di mano, i robot che abbiamo oggi possono camminare a malapena un miglio all'ora prima che raggiungano una barriera invalicabile, si confondano e mangiano il marciapiede in modo esilarante. E mentre si potrebbe tentare di puntare alla Legge di Moore come esempio di quanto velocemente la tecnologia di robotica ha il potenziale per progredire nel futuro, l'altra deve solo guardare l'Asimo, che ha debuttato per la prima volta quasi 15 anni fa, e non ha fatto alcun miglioramenti significativi da.
Per quanto vorremmo che lo facessero, la robotica non è arrivata da nessuna parte a aderire allo stesso modello di progresso esponenziale che abbiamo visto negli sviluppi del processore del computer. Sono vincolati dai limiti fisici di quanta potenza possiamo inserire in un pacco batteria, dalla natura difettosa dei meccanismi idraulici e dalla lotta senza fine per dominare la lotta contro il proprio centro di gravità.
Quindi per il momento; no, anche se un vero AGI o ASI potrebbe essere potenzialmente creato in un supercomputer statico su alcuni server farm in Arizona, è ancora altamente improbabile che ci troveremo a correre per le strade di Manhattan mentre un'orda di scheletri di metallo ci falcia giù da dietro.
Invece, l'intelligenza artificiale che Elon e Hawking sono così desiderosi di mettere in guardia contro il mondo è quella della varietà "che sostituisce la carriera", che può pensare più velocemente di noi, organizzare i dati con meno errori e persino imparare a fare meglio i nostri lavori di quanto potremmo mai sperare - tutto senza chiedere un'assicurazione sanitaria o qualche giorno libero per portare i bambini a Disneyland in Spring Break.
Barista Bots e il perfetto cappuccino
Alcuni mesi fa NPR ha rilasciato uno strumento utile sul suo sito Web, in cui gli ascoltatori di podcast potevano selezionare da un elenco di diverse carriere per scoprire la percentuale di rischio trasportata dalla propria linea di lavoro per essere automatizzata ad un certo punto nei prossimi 30 anni.
Per una vasta gamma di posti di lavoro, inclusi ma non limitati a: impieghi, infermeria, informatica, diagnostica e persino baristi del caffè, i robot e le loro controparti ANI quasi certamente metterà milioni di persone fuori dal lavoro e nella linea del pane prima di molti di noi pensano Ma queste sono macchine che saranno programmate per svolgere solo un compito e un compito, e hanno poca (se non nessuna) capacità di andare oltre una serie specializzata di istruzioni pre-programmate che installiamo attentamente in anticipo.
Ciò significa che almeno nel prossimo futuro (pensate 10-25 anni), gli ANI rappresenteranno la vera minaccia tangibile per il nostro modo di vivere molto più di quanto qualsiasi AGI teorica o ASI possa fare. Sappiamo già che l'automazione è un problema crescente che cambierà drasticamente il modo in cui entrate e privilegi sono distribuiti nel primo e nel terzo mondo. Tuttavia, se quei robot alla fine tenteranno di scambiare le loro macchine da cucire per mitragliatrici è ancora oggetto di un riscaldamento (e come scoprirete), in ultima analisi, il dibattito frivolo.
Con una grande potenza, arriva una grande singolarità
"Sai, so che questa bistecca non esiste. So che quando me lo metto in bocca, Matrix mi sta dicendo che è succoso e delizioso. Dopo nove anni, sai cosa mi rendo conto? "
"L'ignoranza è beatitudine." - Cypher
Sebbene si tratti ancora di un'opinione ferocemente dibattuta, per ora il consenso di molti dei migliori scienziati e ingegneri nel campo della ricerca sull'AI sembra essere che siamo molto più a rischio di cadere preda delle comodità che un mondo di intelligenza artificiale potrebbe fornire, piuttosto che essere abbattuto da una versione reale di Skynet. In quanto tale, è una possibilità relativa che la nostra eventuale fine potrebbe non venire come il prodotto di progressi lenti e metodici verso il grande sconosciuto. Invece, è molto più probabile che emerga come una conseguenza involontaria dell'intersezione affrettata e eccessivamente entusiasta della nostra propria arroganza e ingenuità che sbatte insieme per creare la prossima grande singolarità tecnologica.
Pensa meno Terminator, e altro ancora Wall-E. Come la flotta di robot che ingrassò gli umani nel film della Pixar, noi umani non abbiamo problemi a tenere scimpanzè in uno zoo, e la differenza è se un'IA sarà così gentile da fare lo stesso con noi.
Da questa prospettiva, ha più senso avere paura di una realtà in cui gli umani sono collegati a una simulazione VR continua su scala planetaria La matrice, ingrassato dalle branchie con i loro cibi preferiti e dato tutto quello che potrebbero desiderare mentre le macchine si prendono cura di tutto il resto. Un luogo in cui un ASI evoluto non ci vede come un bug per raschiare via la sua scarpa, ma invece come gli adorabili meatbags di scimmia siamo, facile da accontentare e meritare almeno un po 'di credito per creare l'onnisciente, quasi-dio onniveggente che alla fine prese il controllo del pianeta.
In questo senso, tutto si riduce alla tua definizione di cosa significhi "vivere" attraverso la rivoluzione dell'IA. L'idea che qualcosa di "inutile" debba essere eliminato è un concetto esclusivamente umano, una mentalità che non dobbiamo aspettarci immediatamente che i nostri signori della macchina adottino dal nostro ambito morale limitato. Forse l'eventuale evoluzione della nostra intelligenza digitale non sarà pura malvagità, ma un'infinita compassione per tutti gli esseri viventi; non importa quanto egoisti, ipocriti o autodistruttivi possano essere.
Quindi ... dovremmo essere preoccupati per questo?
Dipende da chi chiedi.
Se condividi due dei più intelligenti ingegneri tecnologici e matematici del mondo moderno, otterrai quattro risposte diverse, ei numeri non oscillano mai, anche più persone aggiungi al tabellone. Ad ogni modo, il problema principale che dovremmo affrontare non è "sta arrivando l'IA?" Perché lo è, e nessuno di noi sarà in grado di fermarlo. Guardando così tante diverse prospettive, la vera domanda che nessuno si sente a proprio agio a rispondere con troppa confusione è: "sarà misericordioso?"
Anche dopo che alcune delle più grandi menti del mondo hanno affrontato il problema, il quadro di ciò che l'intelligenza artificiale potrebbe sembrare 20, 30 o 50 anni nel futuro, risulta ancora piuttosto oscuro. Poiché il campo dell'IA si trasforma costantemente in qualcos'altro ogni volta che viene prodotto un nuovo chip del computer o si sviluppa materiale transistor, rivendicare l'autorità suprema su ciò che può o non può accadere è un po 'come dire "sapere" che un lancio di dadi è certo per venire a occhi di serpente al prossimo lancio.
Una cosa che possiamo segnalare con sicurezza è che se sei preoccupato di ricevere una ricevuta rosa la settimana prossima dal tuo registratore di cassa computerizzato, cerca di non farti prendere troppo in considerazione. Taco Bell sarà ancora aperto per i Martedì di Taco, e un umano prenderà sicuramente il tuo ordine alla finestra, (e dimenticando la salsa verde, di nuovo). Secondo uno studio condotto da James Barrat al Vertice AGI dell'anno scorso in Quebec, la giuria su una linea temporale difficile per l'intelligenza artificiale è ancora fuori. Meno della metà di tutti i presenti ha affermato di ritenere che avremmo conseguito una vera AGI prima del 2025, mentre oltre il 60 percento ha dichiarato che ci vorrebbe almeno fino al 2050, se non entro il prossimo secolo e oltre.
Mettere una data difficile al nostro appuntamento con il destino digitale è un po 'come dire che si sa che pioverà nella giornata di oggi tra 34 anni. Il divario tra una vera intelligenza artificiale e un'intelligenza artificiale avanzata è talmente sottile che le cose andranno veramente bene o in modo orribilmente sbagliato molto, molto rapidamente. E anche se i computer quantistici sono appena sopra l'orizzonte e abbiamo tutti gli smartphone in rete nelle nostre tasche che possono trasmettere segnali nello spazio, stiamo ancora appena scalfendo la superficie di comprendere il "perché" del perché pensiamo alle cose nel modo in cui noi in primo luogo, o da dove viene la coscienza.
Immaginare di poter accidentalmente creare una mente artificiale piena di tutte le nostre colpe e di mancanze evolutive - prima ancora di sapere che cosa ci rende ciò che siamo - è l'essenza dell'ego umano in preda all'impazzata.
Alla fine, nonostante il nostro implacabile desiderio di decidere chi uscirà in cima alla prossima guerra e / o trattato di pace tra umanità e macchine, è una competizione di aspettative limitate contro possibilità illimitate, e tutto ciò che stiamo facendo è discutere la semantica nel mezzo. Certo, se sei appena uscito dal liceo e stai cercando di ottenere la certificazione di guida in taxi, il CEO di Uber ha mezzo milione di motivi per cui dovresti probabilmente pensare di trovare una carriera altrove.
Ma se stai accumulando armi e fagioli in scatola per l'apocalisse dell'IA, potresti stare meglio a spendere tempo imparando a dipingere, codificare o scrivere il prossimo grande romanzo americano. Anche alle stime più prudenti ci vorrà un certo numero di decenni prima che una qualsiasi macchina impari come essere Monet, o insegna se stessa come C # e Java, perché gli umani sono pieni del tipo di creatività, ingegno e capacità di esprimere i nostri sé più intimi come no caffettiera automatica mai potuta.
Sì, a volte potremmo diventare un po 'emotivi, venire giù con un raffreddore sul lavoro, o aver bisogno di fare un pisolino in mezzo alla giornata, ma forse è proprio perché siamo umani che la minaccia di creare qualcosa di più grande di noi all'interno di una macchina è ancora molto, molto lontana.
Crediti immagine: Disney Pixar, Paramount Pictures, Bosch, Youtube / TopGear, Flickr / LWP Communications Flickr / BagoGames, Wikimedia Foundation, Twitter, WaitButWhy 1, 2