header

5 luglio 2008

Fine della teoria?

Del saggio di Chris Anderson apparso sull'ultimo numero di Wired si sono già occupati in tanti, per esempio qui e qui (una raccolta di commenti più completa la si può trovare su Edge). Dico la mia, non senza una certa sorpresa per come un'idea tutto sommato piuttosto ingenua (come proverò a spiegare più avanti) possa aver scatenato tutto questo dibattito.

L'idea di Anderson (già noto ai più per aver divulgato il concetto di coda lunga) è che l'enorme quantità di dati accessibili all'indagine scientifica avrà presto il risultato di rendere obsoleta la costruzione di modelli e l'interpretazione dei dati stessi. Basterà stabilire correlazioni e relazioni tra i dati attraverso l'uso di calcolatori sempre più potenti per avere tutte le informazioni di cui abbiamo bisogno, senza dover sovrapporre ai dati uno schema costruito dalle nostre menti. Sembra che Anderson voglia far svanire completamente la distinzione tra dati e modello: i dati, quando sono tanti e di grande qualità, hanno in sé tutto quello che serve per interpretarne il comportamento. I dati sono il modello, in un certo senso. Il che è esattamente l'opposto di quello che ogni buon scienziato ha ben stampato a caratteri cubitali da qualche parte del suo cervello: "correlazione non è causazione". Per Anderson, invece, la correlazione è abbastanza.

La cosa mi ha fatto venire in mente l'idea (esposta tra gli altri da Seth Lloyd ne Il programma dell'universo) che vuole che le leggi di natura non siano qualcosa di fisso ed esterno (platonico, potremmo dire) che regola il comportamento dei sistemi fisici, ma una proprietà che emerge dal sistema fisico stesso. Un concetto che ha il suo fascino e che sarei anche portato a condividere. Ma quello che mi lascia perplesso dell'idea di Anderson, come dicevo, è che dal punto di vista pratico mi sembra troppo ingenua. È vero che siamo ormai sommersi in misura sempre maggiore da dati di altissima qualità, ma è anche vero che tutti questi dati richiedono ancora più che in passato uno sforzo interpretativo enorme: aiutato dai calcolatori, certo, ma che i calcolatori non sono (ancora?) in grado di fare da soli. Chi lo fa per professione, sa perfettamente (ahimé) quanto la cosa sia complicata.

Ma anche nell'ipotesi fantascientifica di avere un insieme di dati talmente enorme e accurato da essere una copia perfetta del sistema che vogliamo studiare (al limite, dell'universo) e di un computer talmente potente da riuscire a stabilire ogni possibile connessione e correlazione tra i dati, avremmo ottenuto soltanto una simulazione perfetta della realtà, una copia fedele i cui meccanismi, interamente riprodotti nei circuiti del processore, resterebbero per noi altrettanto arcani di quelli del mondo fisico reale. Avremo sempre bisogno di comprimere i dati in forme che non solo siano più maneggevoli per le nostre menti limitate, ma che ci dicano qualcosa di più sui meccanismi che li hanno prodotti. Questo fanno i modelli. Che non sono la realtà, ma una stampella concettuale che usiamo per provare a capire la realtà. Rinunciare ai modelli significa rinunciare a comprendere i fenomeni.

Ma noi esseri umani abbiamo bisogno di provare a capire il mondo, non solo di descriverlo. Questo è il motivo per cui facciamo scienza.
Related Posts Plugin for WordPress, Blogger...