“L'eccezione che conferma la regola” è un modo di dire che suscita parecchi brividi dal punto di vista logico-matematico, come dal punto di vista scientifico; semmai, una eccezione dovrebbe negare la regola; le “eccezioni” vengono usate come controesempi per dimostrare che un teorema non è valido nel momento in cui una delle ipotesi viene ‘allentata’; le “eccezioni” sono usate nel metodo scientifico per falsificare una teoria, non per confermarla (anche se la sua falsificazione ci dice che la teoria era, appunto, scientifica).

In definitiva, cosa dovrebbe mai portare a dire che un'eccezione conferma la regola?

È abbastanza evidente che questo modo di dire nasce legato al mondo reale ed al suo essere molto meno ‘pulito’ e ‘regolare’ di quanto la matematica e la scienza possano descrivere e modellare; in qualche modo, diventa un modo per evidenziare il fatto che nella realtà vi sono delle regolarità “imperfette”; ed è anche un modo di dire che serve a giustificare quando si preferisce, in contesti specifici, non seguire certe regole.

In realtà, da un punto di vista logico-semantico, l'esistenza di un'eccezione conferma, effettivamente, l'esistenza di una regola, nel senso che senza una regola, non si potrebbe parlare di eccezione (eccezione a cosa?).

Eppure, anche in matematica è riuscita ad insinuarsi la possibilità di “situazioni eccezionali” in “deroga” alla liscia, astratta regolarità che normalmente si associa ad essa.

In effetti, la grande analisi del diciannovesimo secolo, che costituisce tuttora la sua parte forse più nota, diffusa ed usata (consciamente o inconsciamente), si occupa sostanzialmente di enti matematici (principalmente, funzioni) caratterizzate da grande regolarità: integrali e derivate, gli strumenti fondamentali dell'analisi, si appoggiano pesantemente a concetti quali quelli di continuità, differenziabilità, lipschitzianità … si richiede quindi che le funzioni siano senza ‘salti’, che il loro grafico sia ‘liscio’, senza spigoli o strane pieghe.

Ma sul finire del diciannovesimo secolo, alcuni matematici tra cui l'italiano Giuseppe Peano si dedicarono alla formalizzazione del concetto di misura (intuitivamente, l'equivalente della lunghezza dei segmenti, delle aree delle figure bidimensionali, dei volumi dei solidi).

La teoria della misura che si viene sviluppando negli anni successivi introduce quindi nel campo dell'analisi un concetto rivoluzionario, quello del quasi ovunque; non è più necessario che una funzione non abbia salti, che sia liscia: eccezioni alla regolarità delle funzioni sono permesse, purché queste siano ‘poche’ rispetto al comportamento ‘generalmente’ regolare della funzione.

La ‘pochezza’ (sic) delle eccezioni è strettamente legata alla teoria della misura, ma da un punto di vista intuitivo può anche essere un numero molto grande (potenzialmente infinito). Ad esempio, i numeri razionali sono ‘pochi’ rispetto a tutti i numeri reali (la misura di Lebesgue dell'insieme dei numeri razionali è zero), nonostante il fatto che la nostra mente possa enumerare una quantità infinita di numeri razionali e solo un pugno di numeri irrazionali.

Perché è interessante tutto questo? Se immaginiamo la vita di uomo come un ‘segmento temporale’, un insieme di istanti (con dimensione topologica 1), quest'uomo può affermare di avere quasi sempre ragione pur avento torto un'infinità di volte, a patto che l'insieme degli istanti in cui ha torto abbia misura nulla.

Non è meraviglioso tutto ciò?