Home
Algoritmi utili per aiutarci nella vita

12 Aprile 2023

Algoritmi utili per aiutarci nella vita

di

La capacità dell’informatica di fornirci algoritmi utili per affrontare meglio la quotidianità è superiore a quello che pensiamo. Ecco qualche esempio.

Indicazioni per affrontare i problemi di ogni giorno, grazie agli algoritmi utili

  1. Quando smettere di cercare
  2. Che cosa c’è dietro le manifestazioni sportive
  3. Come pianificare e gestire le scadenze
  4. Come predire se il bus arriverà in ritardo
  5. Quando conviene collaborare

1. Quando smettere di cercare

Se preferisci il signor Martin a qualsiasi altra persona; se pensi che sia l’uomo più piacevole di tutti quelli con cui hai trascorso del tempo, allora perché dovresti esitare?
— Jane Austen, Emma

È un fenomeno tanto comune che per definirlo i consulenti per l’orientamento universitario hanno coniato un termine gergale: è il turkey drop, lo sgancio del tacchino. Quando i fidanzatini del liceo tornano a casa per il Ringraziamento del primo anno di università, quattro giorni dopo rientrano al campus da single.

La natura della monogamia seriale, a grandi linee, fa sì che i suoi praticanti si debbano confrontare con un problema fondamentale e inevitabile. Quando puoi dire di aver incontrato abbastanza persone per sapere quale sia la migliore per te? E cosa succede se, per acquisire le informazioni di cui hai bisogno, perdi proprio quella persona? Sembra il più inestricabile dei dilemmi amorosi.

Questo dilemma, questa crisi angosciosa delle matricole, è quello che i matematici chiamano problema di interruzione ottimale, e questo problema ha una risposta: 37 percento. Certo, tutto dipende dai propri presupposti sull’amore.

Il problema della segretaria

In ogni problema di interruzione ottimale, il dilemma cruciale non è quale opzione scegliere, ma quante opzioni si debbano considerare. Questi problemi dimostrano di avere implicazioni non soltanto per gli innamorati e per gli affittuari, ma anche per gli automobilisti, i proprietari di case, i ladri d’appartamento e tanti altri.

La regola del 37 percento deriva dal più celebre tra i rompicapi di interruzione ottimale, oggi noto come problema della segretaria. Immagina di tenere dei colloqui a una serie di candidate per un posto da segretaria e che il tuo obiettivo sia massimizzare le possibilità di assumere la miglior candidata.

Non hai idea di come assegnare dei punteggi alle singole candidate, ma puoi facilmente ordinarle a seconda della tua preferenza. (Un matematico potrebbe dire che hai accesso soltanto ai numeri ordinali, la classifica relativa che compara le candidate tra loro, ma non ai numeri cardinali, il loro punteggio in una qualche scala generale). Poniamo, inoltre, che tu stia tenendo un colloquio alla volta, uno per ciascuna candidata. Puoi decidere di offrire il lavoro a una di loro in qualsiasi momento durante il colloquio, ed è sicuro che in questo modo lei accetterebbe mettendo fine alla ricerca, ma se passi oltre e decidi di non assumere la candidata, allora l’avrai persa per sempre.

Di norma si considera che il problema della segretaria abbia fatto la propria comparsa su carta stampata (senza alcuna esplicita menzione alle segretarie) in un numero di Scientific American del febbraio 1960: era uno dei molti rompicapi proposti nell’amato colonnino di Martin Gardner dedicato alla matematica ricreativa.

Il problema della segretaria ha dimostrato di essere un rompicapo matematico quasi perfetto: semplice da spiegare, diabolico da risolvere, breve nella risposta e affascinante nelle implicazioni. Per questo si è diffuso a macchia d’olio tra i circoli matematici degli anni Cinquanta, è passato di bocca in bocca e, grazie al colonnino di Gardner del 1960, ha catturato l’attenzione del grande pubblico. Entro gli anni Ottanta il problema e le sue varianti avevano prodotto così tante analisi che veniva discusso sulle riviste come fosse un campo di ricerca a sé stante.

Torna all’inizio.

2. Che cosa c’è dietro le manifestazioni sportive

Uno sguardo algoritmico sullo sport porta a domandarsi quanto dovremmo fidarci della legittimità di una medaglia olimpica o della vittoria in un campionato.

Come spiega Michael Trick, in alcuni sport, per esempio nel baseball, una squadra perderà certamente il 30% delle partite e una squadra vincerà il 30% delle partite, a prescindere da chi siano. Questo ha implicazioni problematiche per un formato a eliminazione diretta. Se le partite del basket NCAA, diciamo, vengono vinte dalla squadra più forte il 70 percento delle volte, e vincere il torneo necessita di prevalere sei volte di fila, allora la squadra migliore ha meno del 12 percento delle possibilità di vincere il torneo! Detta altrimenti, il torneo incoronerà la migliore solo una volta ogni decennio.

Può essere che in alcuni sport avere il 70 percento di fiducia nel risultato di una partita possa significare dare troppa importanza al punteggio finale. Il fisico della Università della California a San Diego Tom Murphy ha applicato tecniche di progettazione numerica al calcio e ha concluso che i punteggi bassi di questo sport rendono i risultati delle partite molto più vicini all’assegnazione casuale di quanto la maggior parte dei tifosi sarebbe disposta a credere.

Una partita che finisce 3 a 2 dà alla squadra vincente solo cinque possibilità su otto di essere in effetti la squadra migliore… Personalmente, non mi sembra che sia molto impressionante. Persino una vittoria per 6 a 1 ha una possibilità del 7 percento di essere un colpo di fortuna statistico.

Gli informatici chiamano questo fenomeno rumore. Una volta che ammetti l’esistenza di una comparazione rumorosa, che può quindi sbagliare, alcuni degli algoritmi più venerati dagli informatici finiscono fuori dalla finestra e alcuni dei più infamati trovano il loro momento di redenzione.

Dave Ackley, professore di informatica all’Università del New Mexico, lavora all’intersezione tra informatica e vita artificiale e crede che i computer possano imparare dalla biologia. Tanto per cominciare, gli organismi vivono in un mondo in cui sono pochi i processi che hanno lo stesso livello di affidabilità da cui dipendono i computer, quindi sono costruiti per quella che i ricercatori chiamano robustezza. È tempo, sostiene Ackley, di riconoscere le virtù della robustezza anche per gli algoritmi.

Quindi, mentre l’autorevole tomo di programmazione alla voce Ordinamento e ricerca scrive in grassetto che l’ordinamento Bubble non ha apparenti possibilità di riscatto, la ricerca di Ackley e collaboratori suggerisce che, dopo tutto, ci può essere uno spazio anche per algoritmi come Bubble sort. La sua profonda inefficienza – il fatto di spostare gli elementi soltanto di una posizione per volta – lo rende piuttosto robusto, molto di più di algoritmi veloci come Merge sort, dove ogni comparazione potrebbe spostare un elemento di molto. La grande efficienza di Merge sort lo rende fragile: un errore in partenza è come una sconfitta sfortunata nel primo turno di torneo a eliminazione diretta, che non solo può distruggere le speranze della squadra favorita per il campionato, ma anche relegarla in modo permanente nella seconda metà della classifica.

Leggi anche: Gli algoritmi possono essere facili. Ecco 5 risposte

È interessante notare che la March Madness della NCAA è progettata proprio per mitigare questo difetto dell’algoritmo. Il problema più grande dell’eliminazione diretta, come abbiamo detto, sembra l’eventualità per cui la prima squadra eliminata dalla vincente sia in realtà la seconda migliore del torneo, finendo però così nella (disordinata) seconda metà della classifica. La NCAA ha aggirato questo problema gestendo le squadre in modo che le prime classificate non possano incontrarsi nei primi turni. Questo procedimento sembra affidabile perlomeno nella maggior parte dei casi, dato che, nella storia della March Madness, non è mai successo che una squadra arrivata sedicesima battesse quella arrivata prima.

In effetti però non è l’ordinamento Bubble il singolo miglior algoritmo per affrontare il rumore nella comparazione. A guadagnarsi questo particolare onore è un algoritmo chiamato Comparison counting sort (ordinamento per confronto e conteggio). In questo algoritmo, ogni elemento è comparato con tutti gli altri, generando un conteggio di quanti sono gli altri elementi di cui è maggiore. Questo numero può essere usato direttamente come rango di quell’elemento. Dato che confronta tutte le coppie, Comparison counting sort richiede un tempo quadratico, come l’ordinamento a bolla e quindi non è molto popolare nelle applicazioni tradizionali dell’informatica, anche se è eccezionalmente resistente all’errore.

Il funzionamento di questo algoritmo dovrebbe suonare familiare. Comparison counting sort funziona proprio come un torneo Round robin. In altre parole, assomiglia molto alla stagione regolare di una squadra, che gioca contro ogni altra squadra della division e compone una serie di vittorie e sconfitte che ne determina la posizione in classifica.

Che il Comparison counting sort sia il più robusto algoritmo di ordinamento noto, quadratico o meglio, dovrebbe dire qualcosa di davvero specifico ai tifosi: se la tua squadra non arriva ai playoff, non lamentarti. Il Merge sort di fine stagione è sensibile al caso, ma il Comparison counting sort della stagione regolare, della division, non lo è. Detta in modo diverso, se la tua squadra viene eliminata presto nei play-off è la dura sorte, ma se non riesce ad arrivare ai playoff è la dura realtà. Potresti guadagnarti l’empatia sportiva dei tuoi amici tifosi, ma di certo non quella di un informatico.

Torna all’inizio.

3. Come pianificare e gestire le scadenze

Quando ci occupiamo di pianificare per un’unica macchina, incappiamo subito in un problema. Il lavoro di Johnson sulla legatoria era basato sul minimizzare il tempo totale richiesto a due macchine per completare i loro compiti, ma se pianifichiamo per una macchina sola dovremo comunque portare a compimento tutti i compiti assegnati, cosicché, a prescindere dall’ordine, arriveremo in fondo nello stesso tempo; l’ordine, insomma, è irrilevante.

Ancor prima di cominciare, ci siamo guadagnati la prima lezione sulla pianificazione di una singola macchina: esplicita quali sono i tuoi obiettivi. Nessuna pianificazione è preferibile fino a quando non sappiamo cosa abbia valore per noi. È una specie di verità generale per l’informatica: prima di elaborare un piano, devi scegliere una metrica. E la metrica che sceglieremo avrà un effetto diretto su quali pianificazioni saranno le migliori.

I primi articoli sulla pianificazione di una singola macchina seguirono rapidamente il lavoro di Johnson sulla legatoria e offrirono alcuni possibili parametri da tenere in considerazione. Per ciascun parametro, elaborarono una semplice strategia ottimale.

Per esempio, è comune avere una scadenza per ciò che dobbiamo fare, con il ritardo di un compito che viene misurato da quanto si è andati oltre la scadenza. Possiamo dunque dire che il massimo ritardo di una serie di compiti corrisponde al ritardo di uno qualsiasi di quei compiti che sia andato oltre la data di scadenza: il genere di questioni che potrebbero interessare il tuo datore di lavoro quando valuta la tua redditività. (O quello che potrebbe interessare i clienti di un negozio o un servizio, dove il ritardo massimo corrisponde al cliente che ha dovuto aspettare più tempo prima di essere servito).

Se il tuo problema è minimizzare il massimo ritardo, allora la miglior strategia è dare priorità ai compiti che vanno completati prima, e proseguire poi con quelli da concludere più tardi. Questa strategia, nota come Earliest Due Date (Primo tempo di consegna), è piuttosto intuitiva. Tuttavia alcune delle sue implicazioni sono sorprendenti. Per esempio, è del tutto irrilevante quanto tempo ci vorrà per completare ogni singolo compito: questo non cambia la pianificazione e, in effetti, non serve neppure saperlo. Tutto quello di cui t’importa è quando devi portare a termine un compito.

Forse stai già usando Earliest Due Date per gestire il tuo flusso di lavoro, caso in cui è probabile che tu non abbia bisogno dell’informatica per sapere che è una strategia sensata. Potresti non sapere, però, che è la strategia ottimale. Più precisamente, è ottimale assumendo che il tuo solo interesse sia una particolare metrica: la riduzione del massimo ritardo. Se questo però non è il tuo obiettivo, allora potresti applicare al tuo lavoro una strategia migliore.

Tra gli algoritmi utili spicca quello di Moore

Per esempio, considera il frigorifero. Se sei uno degli abbonati a un servizio di supporto dell’agricoltura locale, ogni settimana o due ti vengono recapitati, tutti insieme, molti prodotti freschi. Ciascuno di questi si guasterà in un momento diverso, quindi mangiarli seguendo Earliest Due Date, cioè pianificando di consumarli a partire dal primo che marcirà, sembra un punto di partenza piuttosto ragionevole. Solo che non è finita qui. Earliest Due Date è ottimale nel ridurre il massimo ritardo, il che significa che minimizzerà il grado di marcescenza del singolo alimento più marcio che dovrai mangiare; potrebbe insomma non essere la metrica più appetitosa da applicare.

Forse, invece, quello che vogliamo in questo caso è minimizzare il numero di alimenti che vanno a male, così che a offrirci la strategia di pianificazione migliore sarebbe l’Algoritmo di Moore.

L’Algoritmo di Moore ci dice di iniziare proprio come con Earliest Due Date, pianificando il consumo dei nostri prodotti secondo l’ordine in cui si deterioreranno: il primo per primo e poi uno alla volta. Tuttavia, non appena ci sembrerà di non riuscire a mangiare l’alimento successivo in tempo, ci fermeremo, riconsidereremo i pasti che già abbiamo programmato e butteremo via l’alimento più grande (cioè quello che richiederebbe più giorni per essere consumato).

Questo potrebbe significare, diciamo, dover rinunciare all’anguria che comprende una mezza dozzina di porzioni; eliminarla significherà che, tutto quello che segue nella pianificazione, sarà mangiato molto prima. A quel punto, tolta di mezzo l’anguria, rivediamo lo schema, ridistribuiamo gli alimenti a seconda del loro momento di deterioramento e, ogni volta che restiamo indietro, eliminiamo il più grande tra quelli già pianificati. Quando tutto quello che rimane può essere mangiato in ordine di deterioramento, senza che nulla marcisca, ecco la nostra pianificazione.

L’algoritmo di Moore minimizza il numero di cose da buttare, anche se ovviamente puoi benissimo compostare il cibo, regalarlo o darlo ai tuoi vicini. In un contesto industriale o burocratico dove non si può semplicemente eliminare un progetto, ma dove il numero di progetti in ritardo (e non quanto siano in ritardo) è comunque la maggior preoccupazione, l’algoritmo di Moore è del tutto indifferente a come questi compiti eliminati saranno gestiti. Qualsiasi cosa venga tolta dal programma può essere affrontata alla fine, in qualsiasi ordine: non ha importanza, sono tutti compiti per i quali sei comunque in ritardo.

Torna all’inizio.

4. Come predire se il bus arriverà in ritardo

Tutta la conoscenza umana è incerta, inesatta e parziale.
– Bertrand Russell

Domani sorgerà il Sole. Ci puoi scommettere il tuo ultimo dollaro.
– Annie

Pierre-Simon de Laplace nacque in Normandia nel 1749, e suo padre lo mandò in una scuola cattolica perché divenisse sacerdote. Studiò teologia all’Università di Caen ma, a differenza di Bayes, che per tutta la vita tenne come in equilibrio devozione scientifica e spirituale, alla fine abbandonò la tonaca per dedicarsi alla sola matematica.

Nel 1774, del tutto ignaro del precedente lavoro di Bayes, Laplace pubblicò un testo ambizioso chiamato Trattato sulla probabilità delle cause degli eventi dove, finalmente, risolse il problema di come inferire a ritroso a partire dall’osservazione di effetti di cause probabili.

Bayes aveva trovato il modo di comparare la probabilità relativa di un’ipotesi con quella di un’altra. Ma nel caso di una lotteria, il numero di ipotesi è letteralmente infinito: una per ogni concepibile proporzione di biglietti vincenti. Utilizzando il calcolo infinitesimale (un tempo controverso, di cui Bayes era stato strenuo difensore) Laplace riuscì a provare che quest’ampio spettro di possibilità poteva essere distillato fino a una singola stima, e per di più incredibilmente concisa.

Se davvero non sappiamo niente della nostra lotteria, dimostrò, allora, dopo aver estratto un biglietto vincente con il nostro primo tentativo, dovremmo aspettarci che la proporzione dei biglietti vincenti dell’intera lotteria sia esattamente 2/3. Se compriamo tre biglietti e sono tutti vincenti, la proporzione attesa di biglietti vincenti è 4/5. In effetti, per ogni possibile estrazione di w biglietti vincenti in n tentativi, l’aspettativa è semplicemente il numero di vittorie + 1, diviso il numero di tentativi + 2.

Algoritmi per la nostra vita, di Brian Christian e Tom Griffiths

Scegliere che cosa completare e che cosa lasciare incompiuto, quanto aspettare un’offerta migliore al momento di comprare casa, che cosa scegliere tra quello che è meglio e quello che è nuovo… sembrano dilemmi squisitamente umani e invece l’informatica ha molto da suggerirci, grazie agli algoritmi utili per la nostra vita.

Questo schema incredibilmente semplice per stimare le probabilità è noto come Legge di Laplace, ed è facile da applicare a qualsiasi situazione dove ci sia bisogno di stabilire le probabilità di un evento sulla base della sua storia. Se fai 10 tentativi in qualcosa e 5 hanno successo, la Legge di Laplace dice che le possibilità complessive di vittoria nella lotteria sono 6/12, cioè 50 percento, proprio come avresti potuto immaginare. Se estrai solo una volta e vinci, Laplace stima che un rapporto di 2/3 sia più ragionevole dell’assumere che si vincerà ogni volta, e più efficiente rispetto al sistema di Prince (il quale ti direbbe che c’è un 75 percento di metaprobabilità di avere 50 percento o più probabilità di successo).

Laplace continuò ad applicare questo approccio statistico a moltissimi problemi dell’epoca, compreso il valutare se i bambini abbiano davvero la stessa probabilità di nascere maschi o femmine. (Stabilì, con oggettiva certezza, che la nascita di maschi è un poco più probabile di quella delle femmine). Scrisse anche il Saggio filosofico sulle probabilità, considerato il primo libro sulla probabilità pensato per un largo pubblico e, tuttora, uno dei migliori mai scritti, che espone la sua teoria e ne considera le applicazioni a legge, scienze e vita quotidiana.

La Legge di Laplace ci regala la prima semplice regola, benché approssimata, per rapportarci alla penuria di dati nel mondo reale. Anche quando abbiamo soltanto qualche osservazione, o una sola, ci dà una guida pratica. Vuoi calcolare le probabilità che il bus sia in ritardo? Le chance di vittoria della tua squadra di softball? Conta il numero delle volte che questo è accaduto in passato e aggiungi uno, quindi dividi per il numero delle opportunità + 2. E il bello della Legge di Laplace è che funziona ugualmente bene che tu abbia un singolo punto dati o che ne abbia milioni. La fiducia della piccola Annie sul fatto che domani il Sole sorgerà è giustificata: pare che sulla Terra il Sole sia sorto circa 1,6 trilioni di volte di fila, quindi la possibilità che lo faccia di nuovo al prossimo tentativo è in effetti indistinguibile dal 100 percento.

Torna all’inizio.

5. Quando conviene collaborare

Anche quando possiamo raggiungere l’equilibrio, il fatto che sia stabile non significa che sia buono. Può sembrare paradossale, ma la strategia dell’equilibrio, in cui nessuno dei due giocatori desidera cambiare tattica, non è necessariamente, in nessun senso, quella che genera i migliori risultati per i giocatori. Il più famoso, provocatorio e controverso gioco a due della teoria dei giochi, il dilemma del prigioniero, è il contesto in cui questo fatto è illustrato nel modo migliore.

Il dilemma del prigioniero funziona come segue. Immagina che tu e un tuo complice veniate arrestati dopo una rapina in banca, e immagina che vi sistemino in celle separate. Dovete decidere, a questo punto, se cooperare l’uno con l’altro, mantenendo il silenzio e non ammettendo nulla, o tradire il complice e denunciarlo. Sai che, se entrambi cooperate restando in silenzio, lo Stato non avrà abbastanza prove per accusarvi e ve ne andrete liberi dividendovi il bottino, diciamo, mezzo milione di dollari a testa. Se uno di voi tradisce e accusa l’altro, e l’altro non dice niente, il traditore sarà libero e si terrà l’intero milione di dollari, mentre chi resta in silenzio finirà per essere considerato l’unico responsabile del crimine e riceverà una pena di dieci anni di carcere. Se entrambi accusate l’altra persona, allora condividerete la colpa e dividerete la pena: cinque anni a testa.

Ecco il problema: a prescindere da quello che faccia il tuo complice, per te è sempre meglio tradirlo.

Se il complice ti ha accusato, accusarlo a tua volta ti risparmierà cinque anni di prigione: riceverai una pena condivisa (cinque anni) e non la sconterai per intero (dieci anni). E se il complice sarà rimasto in silenzio, accusarlo ti farà guadagnare l’intero milione di dollari perché non dovrai dividere il bottino. Comunque, la scelta migliore per te è sempre tradire e non cooperare, a prescindere da quello che decide di fare il tuo complice. Comportarti altrimenti, in ogni caso, darà per te risultati peggiori.

In effetti, questo rende il tradimento non soltanto la strategia di equilibrio, ma quella che viene chiamata strategia dominante. Una strategia dominante evita del tutto la ricorsione, essendo la migliore risposta a tutte le possibili strategie dell’avversario, quindi non c’è mai bisogno di infilarti con fatica nella sua mente. Una strategia dominante è potente.

Ecco però il paradosso: se tutti fanno la cosa razionale e inseguono la strategia dominante, la storia si conclude con entrambi condannati a cinque anni di prigione, il che, in confronto alla libertà con mezzo milione di dollari a testa, è molto peggio per tutti gli arrestati. Come è potuto succedere?

La teoria dei giochi è una cosa seria

Si tratta di una delle idee più rilevanti di tutta la teoria dei giochi tradizionale: l’equilibrio per una serie di giocatori, ovvero il fatto che tutti perseguano razionalmente il proprio interesse individuale, potrebbe non generare il risultato che in realtà è il migliore per tutti i giocatori.

La teoria dei giochi algoritmica, in accordo con i principi dell’informatica, ha preso quest’idea e l’ha quantificata, creando una misura chiamata prezzo dell’anarchia. Il prezzo dell’anarchia quantifica la distanza tra la cooperazione (una soluzione progettata o coordinata da un’entità centrale) e la competizione (dove ogni partecipante cerca in modo indipendente di massimizzare il risultato per sé).

In un gioco come il dilemma del prigioniero, questo prezzo in effetti è infinito: aumentare la quantità di denaro nel bottino e allungare le pene di detentive può rendere arbitrariamente ampio il divario fra gli esiti possibili, ma la strategia dominante rimane la medesima. Non c’è limite a quanto le cose possano diventare dolorose per i giocatori, se non si coordinano. Tuttavia in altre situazioni, come avrebbero scoperto i teorici del gioco algoritmico, il prezzo dell’anarchia non è così tremendo.

Per esempio, considera il traffico. Che si tratti di singoli pendolari che provano a farsi strada nell’ingorgo quotidiano, o di router che spostano pacchetti TCP in Internet, ciascuno in questi sistemi vuole soltanto quello che più facile per sé. I guidatori vogliono trovare la strada più veloce, qualunque sia, e i router distribuire i pacchetti con il minimo sforzo: in entrambi i casi, tuttavia, questo può generare un sovraffollamento in passaggi cruciali, creando ingorghi a danno di tutti. Quant’è questo danno, però? In modo sorprendente, Tim Roughgarden e Éva Tardos della Cornell nel 2002 dimostrarono che l’approccio del percorso egoistico è solo il 33 percento peggiore di quella che viene perfettamente coordinata dall’alto.

Il lavoro di Roughgarden e Tardos ha profonde implicazioni sia per la pianificazione urbanistica del traffico fisico sia per le infrastrutture di rete. Il basso prezzo dell’anarchia nel comportamento egoistico potrebbe spiegare, per esempio, perché Internet funzioni piuttosto bene senza un’autorità centrale che gestisca il traffico dei pacchetti. Persino se questa coordinazione fosse possibile, non migliorerebbe di molto le cose.

Quanto costa l’anarchia

Quando si tratta di traffico umano, lo scarso prezzo dell’anarchia ha pro e contro. La buona notizia è che la mancanza di coordinamento centralizzato peggiora le cose al massimo del 33 percento. D’altra parte, se speri che automobili connesse in rete e a guida autonoma potranno regalarci un futuro di traffico utopico, forse è scoraggiante sapere che i guidatori egoisti e scoordinati di oggi sono già piuttosto vicini alla situazione ottimale. È vero, le auto autonome ridurrebbero il numero di incidenti stradali e forse sarebbero capaci di procedere restando più vicine tra loro, entrambi fatti che velocizzerebbero il traffico, ma quanto a ingorghi, l’anarchia ne provoca solo un po’ di più rispetto alla coordinazione perfetta, e quindi spostamenti del tutto coordinati creerebbero solo un traffico leggermente più efficiente dell’attuale.

È un po’ come quella famosa battuta di James Branch Cabell:

L’ottimista crede che viviamo nel migliore dei modi possibili; il pessimista ha paura che sia vero.

Gli ingorghi saranno sempre un problema risolvibile attraverso una maggiore pianificazione e una maggiore gestione della domanda in generale, più che attraverso i comportamenti dei guidatori individuali, umani o computer, egoisti o cooperativi.

Quantificare il prezzo dell’anarchia ha aperto a un modo concreto e rigoroso di definire i pro e i contro dei sistemi decentralizzati, il che ha vaste conseguenze in tutti i contesti in cui le persone si trovano coinvolte in un gioco (che lo sappiano o meno). Uno scarso prezzo dell’anarchia significa che il sistema è, bene o male, buono più o meno quanto sarebbe se attentamente gestito. Un alto prezzo dell’anarchia, d’altra parte, significa che le cose hanno il potenziale di migliorare se coordinate con cura, ma che senza un qualche intervento, si lambisce il disastro. Il dilemma del prigioniero è di quest’ultimo tipo, e sfortunatamente anche molti dei più importanti giochi in cui il mondo è impegnato.

Torna all’inizio.

Questo articolo richiama contenuti da Algoritmi per la nostra vita.

Immagine di apertura di Андрей Сизов su Unsplash.

L'autore

  • Brian Christian
    Brian Christian ha studiato informatica, filosofia e poesia presso la Brown University e l'Università di Washington. Ha pubblicato articoli su The New Yorker, The Atlantic, Wired e The Wall Street Journal e tenuto conferenze presso Google, Facebook, Microsoft, il Santa Fe Institute e la London School of Economics. Già autore di The Most Human Human, best seller del Wall Street Journal e libro dell'anno per il New Yorker, ha ottenuto numerosi premi e riconoscimenti.
  • Tom Griffiths
    Tom Griffiths è professore di psicologia e scienze cognitive all'Università di Princeton, dove dirige il Computational Cognitive Science Lab. Ha ricevuto ampi riconoscimenti per il suo lavoro scientifico, inclusi premi dall'American Psychological Association e dalla Sloan Foundation.

Iscriviti alla newsletter

Novità, promozioni e approfondimenti per imparare sempre qualcosa di nuovo

Gli argomenti che mi interessano:
Iscrivendomi dichiaro di aver preso visione dell’Informativa fornita ai sensi dell'art. 13 e 14 del Regolamento Europeo EU 679/2016.

Libri che potrebbero interessarti

Tutti i libri

Algoritmi per la nostra vita

Alla scoperta della logica informatica che ci aiuta nelle decisioni quotidiane

29,15

41,89€ -30%

23,66

24,90€ -5%

16,99

di Brian Christian, Tom Griffiths