L'onda che verrà

Riassunto Dettagliato del Contenuto

L’onda che verrà: Intelligenza artificiale e potere nel XXI secolo è un saggio che esplora la “prossima ondata” di tecnologie rivoluzionarie e le sue conseguenze per l’umanità. Mustafa Suleyman, cofondatore di DeepMind (ora parte di Google) e attuale CEO di Inflection AI, assieme al co-autore Michael Bhaskar, dipinge un futuro imminente in cui l’intelligenza artificiale (IA) e altre tecnologie avanzate saranno onnipresenti. Nel libro, Suleyman sostiene che entro pochi anni l’IA sarà “tutto intorno a noi”, organizzando le nostre vite, gestendo compiti complessi e persino funzioni di governo. Questa pervasività tecnologica promette grandi benefici: ad esempio, IA avanzate potranno scoprire farmaci miracolosi, diagnosticare malattie rare, ottimizzare il traffico e progettare città sostenibili. Allo stesso tempo, la bioingegneria compirà balzi straordinari: il libro descrive un mondo in cui sarà possibile stampare DNA con facilità, rendendo comune manipolare il codice genetico come fosse un “nuovo alfabeto biologico”. Tecnologie come CRISPR renderanno realizzabile l’editing genetico a basso costo e alla portata di molti, aprendo prospettive di cure personalizzate e di sconfiggere malattie oggi incurabili​.

Suleyman presenta però anche il volto oscuro di questi progressi. Lo stesso potere tecnologico capace di curare malattie potrebbe essere sfruttato in senso opposto: il libro avverte che chiunque, con pochi mezzi e competenze, potrebbe usare l’IA “da scaffale” per creare un patogeno letale. Viene ipotizzato lo scenario inquietante di virus progettati tramite IA e bioingegneria con tassi di contagio e letalità elevatissimi, in grado di “causare più di un miliardo di morti in pochi mesi”. Oltre al rischio di pandemie artificiali, Suleyman elenca una serie di minacce “meramente” causate da IA non necessariamente superintelligenti ma ormai integrate nella società: cyberattacchi automatizzati, diffusione massiva di disinformazione (un “apocalisse informativa”), e sconvolgimenti del mercato del lavoro per l’automazione rapida di mansioni​. In queste pagine emerge un tema chiave: le tecnologie dirompenti hanno una natura duale, promise straordinarie ma anche potenziali catastrofi, e la velocità della loro diffusione rischia di travolgere istituzioni e società non preparate.

Nel libro l’autore alterna esempi reali a scenari futuribili per illustrare come questa “onda” tecnologica potrebbe ribaltare l’ordine costituito. Si immaginano ad esempio governi fragili e incapaci di reagire di fronte a innovazioni come robot intelligenti diffusi nella quotidianità o fonti di energia inesauribile. Suleyman descrive un futuro in cui sarà normale affidare la cura della casa e dei propri cari ad assistenti robotici, generando però una mole di dati che solleva nuovi dilemmi etici e di privacy. La libertà individuale potrebbe intrecciarsi con un maggiore controllo, in un difficile equilibrio tra protezione dai nuovi pericoli e tutela dei diritti personali​. Anche l’equilibrio geopolitico è in bilico: se da un lato si prospetta un’era in cui l’energia non sarà più scarsa (ad esempio grazie a innovazioni nella fusione o nelle rinnovabili), dall’altro questo “surplus” di risorse non garantisce stabilità sociale e potrebbe persino alimentare nuovi conflitti di potere. In breve, Suleyman mostra come il cambiamento imminente genererà immensa ricchezza e progresso, ma rappresenterà anche una minaccia per l’ordine globale. L’umanità si trova di fronte a una scelta cruciale e, secondo l’autore, nessuno di noi è davvero pronto ad affrontare questa realtà.

Il fulcro del libro risiede nel concetto del “dilemma del contenimento”. Suleyman ricorda la lezione storica della Guerra Fredda: proprio come George Kennan nel 1946 propose la strategia del containment contro l’espansionismo sovietico, oggi servirebbe un analogo “contenimento tecnologico” per arginare IA e biotecnologie dilaganti. Tuttavia, qui il paradosso è evidente: a differenza dell’ideologia comunista imposta con la forza, le nuove tecnologie non ci vengono imposte – le abbracciamo volontariamente, attratti dai loro benefici e dalle ricchezze che promettono. Siamo quindi vittime di una contraddizione di fondo: “non possiamo permetterci di non sviluppare proprio la tecnologia che potrebbe causare la nostra estinzione”. Questo è, secondo l’autore, il più grande dilemma del XXI secolo.

Nell’ultima parte del saggio, Suleyman passa dalle diagnosi alle possibili soluzioni. Pur escludendo l’idea estrema di una moratoria totale sullo sviluppo (non sorprende, dato che egli stesso guida una startup di IA), propone una serie di misure per cercare di governare l’onda tecnologica prima che sia troppo tardi. Tra le proposte concrete vi sono: obbligare le aziende di IA a destinare almeno il 20% dei loro investimenti in R&S alla sicurezza e all’AI alignment (allineamento dell’IA agli obiettivi umani), vietare l’uso dell’IA nelle campagne politiche e nelle inserzioni elettorali (per prevenire manipolazioni dell’opinione pubblica), e negoziare un trattato internazionale di non proliferazione tecnologica per limitare lo sviluppo incontrollato di sistemi IA avanzati​. Inoltre, Suleyman suggerisce di agire sui “punti di strozzatura” della filiera digitale, ossia intervenire dove il controllo è più fattibile – ad esempio sulle aziende che producono i chip avanzati o che forniscono servizi cloud essenziali – in modo da vincolare lo sviluppo dell’IA a determinate regole. Egli cita come modello il settore bio-medico, dove a livello internazionale esistono già linee guida e limiti morali alla sperimentazione genetica, frutto di consenso tra scienziati e governi. Un’altra misura fondamentale, secondo l’autore, è promuovere una “cultura della cautela” all’interno della comunità tecnologica stessa: ricercatori e imprenditori dovrebbero sviluppare senso di responsabilità e codici etici condivisi, riconoscendo i rischi insiti nelle loro creazioni.

Suleyman non nasconde che implementare queste idee sarebbe estremamente difficile, dato l’enorme impulso economico e competitivo che spinge l’innovazione tecnologica. Nel testo stesso egli riconosce i limiti e le obiezioni a ciascuna proposta: ad esempio, come convincere le aziende a sacrificare profitti investendo di più in sicurezza, o come far rispettare un trattato globale in un contesto geopolitico frammentato. Nonostante lo scetticismo, l’autore insiste sulla necessità di provarci: “il contenimento non è, a prima vista, possibile. Eppure, per il bene di tutti noi, deve essere possibile”. Questa affermazione paradossale racchiude lo spirito del libro: anche se la sfida sembra proibitiva, l’umanità deve trovare il modo di guidare l’onda anziché esserne travolta. In chiusura, L’onda che verrà lascia il lettore con un senso di urgenza – ma anche con uno sprone all’azione collettiva: il decennio appena iniziato determinerà se sapremo “tracciare una via di fuga” e domare le tecnologie più potenti della storia, bilanciando innovazione e sopravvivenza.

Temi Principali Trattati nel Libro

Nel suo insieme, il libro affronta una pluralità di temi interconnessi. I principali temi possono essere così riassunti:

In sintesi, i temi principali del libro ruotano attorno a un’idea centrale: la prossima rivoluzione tecnologica sarà un “tsunami” che può elevare la civiltà a nuovi traguardi o farla sprofondare nel caos. Prepararsi a governare quest’onda, riconoscendone sia le opportunità sia i pericoli, è la sfida cruciale dei nostri tempi.

Analisi Critica del Testo

L’onda che verrà è stato accolto come un contributo importante al dibattito sulle tecnologie emergenti, ma non sono mancate analisi critiche riguardo al tono e alle soluzioni proposte nel libro. Sul piano stilistico, il testo di Suleyman (coadiuvato dalla penna esperta di Bhaskar) è generalmente accessibile e divulgativo. I recensori hanno notato uno stile a tratti “vivace e quasi ansioso”, pieno di esempi suggestivi e affermazioni incisive. Questa prosa energica tiene il lettore incollato, trasmettendo l’urgenza percepita dall’autore. Tuttavia, qualcuno ha rilevato una certa ripetitività nelle metafore allarmistiche: il ritornello “l’onda sta arrivando” ricorre spesso – un’enfasi voluta per scuotere il pubblico, ma che può apparire eccessiva o retorica. Complessivamente la scrittura è stata giudicata coinvolgente, sebbene alcuni critici avrebbero preferito un approfondimento più sobrio in certi passaggi apocalittici.

Sul fronte dell’argomentazione, Suleyman viene elogiato per la sua capacità di spiegare con chiarezza sia le meraviglie sia i rischi delle nuove tecnologie. In particolare, la sua duplice esperienza da insider (cofondatore di un leader dell’IA) e allo stesso tempo da critico consapevole dà al libro autorevolezza. Come osservato su Kirkus Reviews, proprio perché Suleyman “è un esperto, sa abbastanza da aver paura”: conosce dall’interno le potenzialità dell’IA e questo lo rende credibile quando ne descrive i pericoli. Molti lettori hanno apprezzato i capitoli iniziali, in cui l’autore dipinge scenari futuribili concreti (ad esempio la simulazione di una start-up biotecnologica in garage o un incidente di sicurezza con IA militari) che rendono tangibili minacce altrimenti astratte. Questa parte del libro è stata definita “affascinante e inquietante”, efficace nel sensibilizzare anche un pubblico non specialista sui dilemmi etici in gioco.

Dove il libro è stato più criticato è sul piano delle proposte risolutive e dell’equilibrio tra pessimismo e ottimismo. Alcuni commentatori ritengono che Suleyman dipinga un quadro eccessivamente distopico, enfatizzando scenari estremi poco probabili. Ad esempio, il professore di Yale Scott Shapiro, recensendo il libro per The Guardian, sostiene che Suleyman ignora volutamente la possibilità di una “pausa” nell’avanzata tecnologica: nella storia dell’IA ci sono stati periodi di rallentamento (“AI winter”), e non è scontato che lo sviluppo proceda sempre a ritmo esponenziale. Suleyman nel libro dà per certa un’accelerazione continua, il che secondo Shapiro lo porta a sottovalutare la capacità di adattamento graduale delle società (se l’onda impiegasse più tempo ad arrivare, avremmo margine per assorbire i cambiamenti). Inoltre, Shapiro fa notare che la realtà offre già esempi di “anticorpi sociali” contro gli abusi tecnologici: ad esempio, quando nel 2018 uno scienziato cinese annunciò di aver modificato geneticamente due neonate, la reazione globale fu di condanna e la Cina stessa lo punì severamente. Allo stesso modo, normative come il Regolamento AI dell’UE indicano che le democrazie stanno iniziando a imporre limiti (es. ban sul riconoscimento facciale pubblico). Questi elementi suggeriscono che “normali contrappesi legali e culturali probabilmente rallenteranno le pratiche più dirompenti” anche senza le drastiche misure invocate dal libro. In altre parole, parte della critica accusa Suleyman di allarmismo: aver descritto i worst-case scenario in modo così marcato potrebbe far perdere di vista sviluppi più graduali o soluzioni già in atto nella comunità internazionale.

Quando si passa alle soluzioni proposte, le reazioni sono miste. Da un lato, Suleyman viene lodato per aver avuto il coraggio di avanzare idee concrete, là dove molti saggi si limitano alla diagnosi. La nozione di “contenimento” tecnologico come insieme di meccanismi “tecnici, sociali e legali” integrati per controllare la tecnologia è considerata un contributo utile al dibattito. In particolare, la sottolineatura di choke points (punti di controllo) nel sistema globale dell’IA – come le aziende che producono semiconduttori avanzati – è vista come uno spunto pragmatico: significa identificare leve reali su cui i governi potrebbero agire per limitare la proliferazione incontrollata. Anche l’idea di costruire una cultura della sicurezza tra gli sviluppatori di IA è stata apprezzata, poiché riconosce che il problema non è solo regolatorio, ma anche etico e umano. D’altro canto, però, diversi esperti trovano le soluzioni di Suleyman poco convincenti o difficilmente attuabili. Lo stesso autore ammette che le sue proposte sono “estremamente difficili da implementare”, e i critici ne hanno evidenziato le falle: ad esempio, investire il 20% in sicurezza andrebbe contro gli interessi di mercato di molte aziende in gara tra loro; vietare l’IA nelle campagne politiche, per quanto auspicabile, incontrerebbe ostacoli legislativi enormi (negli USA violerebbe probabilmente il Primo Emendamento). L’idea di un trattato globale anti-proliferazione tecnologica è apparsa vaga – chi dovrebbe farlo rispettare? Un consesso ONU che attualmente fatica a concordare su temi molto meno controversi? Suleyman accenna che gli Stati Uniti potrebbero dover “costringere altri paesi a conformarsi”, persino con “censura reale, possibilmente oltre i confini nazionali”. Questa frase ha allarmato non poco i commentatori: evoca uno scenario di controllo sovranazionale autoritario difficilmente accettabile, e appare in contraddizione con i valori di apertura che l’autore stesso promuove. In definitiva, l’impressione di alcuni critici è che Suleyman suoni un campanello d’allarme giustificato, ma che offra soluzioni non all’altezza della gravità dei problemi sollevati. Come scrive Shapiro, se davvero le previsioni di Suleyman sull’IA si avvereranno in pieno, forse sarà l’IA stessa a doverci dire come governarla – “tra qualche anno basterà chiedere a ChatGPT-7 come gestire l’onda in arrivo” (una chiosa ironica per dire che le proposte attuali del libro potrebbero diventare obsolete).

Un altro aspetto critico riguarda il bilanciamento tra pessimismo e ottimismo nel libro. Curiosamente, Suleyman si mostra ottimista su alcuni fronti – ad esempio, egli sostiene con convinzione che l’IA aiuterà a risolvere la crisi climatica – mentre è estremamente pessimista riguardo alla capacità umana di contenere l’IA stessa. Questa posizione è stata giudicata incoerente da alcuni: se crediamo che l’IA possa risolvere problemi complessi come il clima, perché non potrebbe aiutare a gestire i propri rischi? L’autore sembra insomma avere “fiducia nell’IA come soluzione, ma non nell’umanità come controllore”, una prospettiva che lascia aperto un dibattito filosofico interessante.

In conclusione, la valutazione critica de L’onda che verrà riconosce al libro il merito di porre questioni essenziali sul nostro futuro tecnologico, sfruttando l’autorevolezza di chi ha contribuito in prima persona a creare l’IA moderna. Il testo è ricco di spunti e di scenari stimolanti, ed è riuscito nel suo intento di avviare una discussione ampia (anche tra non addetti ai lavori) sul rapporto tra innovazione e potere. Al contempo, i lettori più esperti possono trovare il tono eccessivamente allarmistico e rilevare un certo divario tra la portata dei problemi sollevati e la concretezza delle soluzioni proposte. Come spesso accade per opere di questo genere, probabilmente il valore del libro sta più nelle domande che solleva che nelle risposte che fornisce. E Suleyman, su questo, ottiene il risultato sperato: costringere tutti noi a riflettere attivamente su come affrontare l’onda tecnologica prima che sia troppo tardi.

Contesto dell’Autore e la Sua Visione su Tecnologia e Potere

Mustafa Suleyman è una figura di spicco nel panorama dell’intelligenza artificiale. Nato nel 1985 a Londra da famiglia anglo-siriana, Suleyman si è fatto conoscere come co-fondatore di DeepMind, una delle prime e più importanti società di ricerca sull’IA. Fondata nel 2010 insieme a Demis Hassabis e Shane Legg, DeepMind ha raggiunto risultati pionieristici (come il programma AlphaGo) ed è stata acquisita da Google (Alphabet) nel 2014. Questa esperienza decennale al centro dell’“rivoluzione dell’IA” ha dato a Suleyman un punto di osservazione privilegiato: ha visto nascere e crescere algoritmi sempre più potenti, comprendendo sia le immense potenzialità applicative sia i rischi impliciti. Dopo DeepMind, Suleyman ha assunto ruoli dirigenziali in Google e si è occupato anche di applicazioni pratiche dell’IA (ad esempio progetti in ambito sanitario per il Servizio Sanitario Nazionale britannico). Nel 2022 ha co-fondato Inflection AI, una nuova azienda specializzata in sistemi di intelligenza artificiale generativa e assistenti personali basati sull’IA. Questa traiettoria professionale – da giovane innovatore a imprenditore AI di successo – spiega in parte il contesto da cui nasce L’onda che verrà: Suleyman è sia un entusiasta costruttore di tecnologia, sia un insider che ha assistito in prima persona alle implicazioni etiche e sociali del proprio lavoro.

La sua visione sulla tecnologia e il potere è fortemente influenzata da questo duplice ruolo. Suleyman crede profondamente nel potere trasformativo dell’IA: in varie interviste ha definito l’ultimo decennio e quello attuale come “il più produttivo nella storia della nostra specie”, grazie ai progressi dell’IA e della scienza dei dati​. Egli vede l’IA come uno strumento che può amplificare enormemente l’agenzia umana – la capacità degli individui e dei gruppi di raggiungere obiettivi. Nel libro afferma che stiamo riuscendo ad “esercitare potere sull’intelligenza e sulla vita stessa” in modi prima impensabili. Questa affermazione riflette la sua idea che la tecnologia stia diventando una leva di potere fondamentale: chi la possiede e la controlla può plasmare il mondo (in bene o in male) su vasta scala.

Tuttavia, a differenza di altri “techno-ottimisti” della Silicon Valley, Suleyman appare insolitamente consapevole dei pericoli e attento alle dinamiche di potere. La sua esperienza gli ha insegnato che ogni innovazione comporta effetti secondari e possibilità di abuso. Di qui nasce la sua enfasi sul concetto di potere responsabile: la tecnologia conferisce potere, ma tale potere va accompagnato da responsabilità, regole e saggezza. Nel contesto del libro, Suleyman spesso richiama il concetto di asimmetria: piccole entità con grandi tecnologie possono sovvertire grandi strutture (ad es. un hacker solitario che destabilizza un’infrastruttura nazionale tramite IA). Questo lo porta a sostenere la necessità di ridefinire il contratto sociale nell’era dell’IA, dove governi, aziende e cittadini devono trovare nuovi equilibri. Ad esempio, la sua proposta di un trattato globale sulla tecnologia implica l’idea che il potere decisionale sulle innovazioni più pericolose non possa essere lasciato alle sole logiche di mercato o ai singoli stati in competizione, ma vada gestito come un “bene comune” internazionale.

Suleyman nel libro cita esplicitamente la fragilità dei governi odierni di fronte alla rapidità tecnologica: li paragona a sonnambuli che camminano verso il disastro. Questa forte immagine tradisce una visione piuttosto critica dello stato attuale del potere politico: secondo l’autore, le istituzioni tradizionali sono lente, miope e reattive, inadatte a fronteggiare sfide globali come l’IA fuori controllo. D’altra parte, egli non invoca soluzioni tecno-anarchiche; al contrario, auspica un rafforzamento della governance (anche sovranazionale) e un coinvolgimento di più attori nella gestione del potere tecnologico. In questo senso, Suleyman sembra abbracciare una visione umanistica e pluralista della tecnologia: il potere dell’IA deve essere imbrigliato tramite collaborazione tra scienziati, politici, società civile ed enti sovranazionali. Il suo appello a una “cultura della cautela” nella comunità tecnologica indica la volontà di vedere gli stessi detentori del potere tecnico farsi parte attiva nel limitarne gli abusi.

Va notato che Suleyman, pur richiamando l’analogia storica col nucleare (dove il potere dell’atomo fu in parte contenuto da trattati e accordi), riconosce che l’IA e la biologia hanno caratteristiche diverse: sono più pervasive, decentralizzate e legate all’economia quotidiana rispetto all’arma atomica. Questo contesto rende la sua visione ancora più complessa: il potere nel XXI secolo non risiede solo negli arsenali militari o nelle stanze dei bottoni, ma anche nei laboratori di ricerca e perfino nei personal computer di milioni di persone. In L’onda che verrà, Suleyman abbraccia dunque una visione dove tecnologia e potere sono indissolubili e diffusi; il suo monito è che solo riconoscendo questa realtà e aggiornando di conseguenza i nostri meccanismi di controllo potremo evitare che il potere tecnologico distrugga le fondamenta della società, anziché potenziarla. Questa filosofia personale dell’autore – un misto di tecno-realismo (né utopico né distopico in assoluto) e impegno etico – permea tutto il libro e ne spiega l’urgenza. In definitiva, Suleyman scrive non da nemico della tecnologia (lui che l’ha forgiata), ma da innovatore preoccupato: la sua visione è quella di chi ama il progresso ma sa che “da un grande potere derivano grandi responsabilità”. Il messaggio, dunque, è che l’onda tecnologica porterà un nuovo paradigma di potere, e spetta a noi plasmarlo per il bene comune finché siamo in tempo.

Recensioni e Reazioni di Critici ed Esperti

Il libro di Suleyman ha suscitato un ampio dibattito internazionale, ricevendo sia elogio da figure di spicco nel mondo della tecnologia e della scienza, sia analisi critiche da parte di esperti e giornalisti. Ecco una panoramica delle reazioni più significative:

In sintesi, Mustafa Suleyman è riuscito ad attirare l’attenzione sia degli ottimisti sia dei pessimisti della tecnologia. Da Bill Gates a Yuval Harari, in molti hanno elogiato la sua analisi come fondamentale per orientarsi nell’era dell’IA. Allo stesso tempo, critici competenti come Shapiro hanno invitato a discutere nel merito le soluzioni e gli scenari prospettati, contribuendo ad arricchire il dibattito. Probabilmente, l’obiettivo ultimo dell’autore – avviare una conversazione globale sulle scelte che ci attendono – è stato centrato: L’onda che verrà è diventato uno dei testi più discussi del 2023 in tema di intelligenza artificiale e innovazione, segno che ha toccato un nervo scoperto della contemporaneità.

Impatti e Implicazioni: Scenari Discussi nel Libro

Nel corso del saggio, Suleyman delinea numerosi impatti e implicazioni derivanti dall’ondata tecnologica in arrivo, dipingendo sia possibili sviluppi positivi sia conseguenze potenzialmente disastrose. Ecco alcuni dei principali scenari ed effetti evidenziati:

In definitiva, L’onda che verrà dipinge un ventaglio di futuri possibili. Da un lato, se si riuscirà a implementare quel “contenimento” intelligente invocato dall’autore, le implicazioni positive potrebbero prevalere: un futuro di prosperità diffusa, con l’IA al servizio dell’umanità per risolvere problemi e migliorare la vita di tutti. Dall’altro lato, se l’onda ci travolgesse senza preparazione, Suleyman avverte di implicazioni fosche: instabilità cronica, perdita di controllo, persino la possibilità di eventi cataclismatici (come una pandemia artificiale) che riporterebbero l’umanità indietro di decenni o peggio. Il libro, dunque, non fornisce predizioni certe, ma scenari condizionali: gli impatti finali dipenderanno dalle scelte che compiremo collettivamente oggi. Come sintetizza efficacemente l’autore, l’umanità è di fronte a una “prospettiva inquietante” ma anche a una sfida entusiasmante: l’onda che sta arrivando può essere l’inizio di una nuova era aurea o di un periodo di caos. Le implicazioni discusse nel libro servono da monito e da ispirazione, affinché lettori, cittadini e decisori comprendano la posta in gioco e contribuiscano a orientare l’onda verso esiti benefici, scongiurando quelli distruttivi.

Fonti: Suleyman, M. L’onda che verrà: IA e potere nel XXI secolo, Garzanti 2024; Amazon.it – descrizione del libro​ amazon.it; Libriblog – recensione di G. Rini​ libriblog.com; The Guardian – recensione di S. Shapiro apicciano.commons.gc.cuny.edu; Kirkus Reviews kirkusreviews.com; GatesNotes – recensione di B. Gates ground.news; OverDrive – citazioni di Harari, Kahneman, Gates princeton.overdrive.com.