Things we could have learned from the COVID-19 pandemic


As we approach what seems to be in most nations the end of the first and hopefully last wave of the COVID-19 pandemic, it is time to think about the lessons we may (or could) have learned from it. Rather than a Dialogue Concerning the Two Chief World Systems for facing the pandemic (lockdown versus “liberty and death”), I'd rather prefer to find myself sharing some thoughts about some more subtle topics.


Washing hands

One of the biggest discoveries for me, right from the beginning of the pandemic, was how few people know how to wash their hands properly. When practical videos about the correct way to wash one's hand started popping out, I was thoroughly fascinated not so much by the demonstration of the correct way, but rather from the introductions illustrating the frequently used, wrong way to do it.

Now, I'm not a “healthism” fanatic, but I do like to keep my hands clean, and I have always known I had a tendency to wash them with greater frequency and care than the average population, but discovering that people not only don't wash their hands as often as I do, but frequently don't wash them properly even when they do, was quite the surprise —and I'm not even talking about the thorough, 20-second-minimum, all-around-and-in-between that has been (cautionarily) taught since the beginning of the pandemic, I'm talking about even more basic (and less paranoid) gestures other than “rubbing your palms together”.

The big question remains: have (a meaningful number of) people actually learned to wash their hands properly? have they taken the habit? will they pass it on to the new generation? or has the lesson already been forgotten in the months that have elapsed since the initial panic?

La revancha del bidé

I have the luck of living in a nation where it is customary to have a bidet in most if not every bathroom. Now, whether or not it is used, and used correctly, is obviously a different matter, but at least it's there.

This is not the case everywhere, and it was interesting to see the lack of a bidet manifesting in nations such as the United States of America with panic buying of toilet paper (and the resulting self-fulfilling prophecy of its shortage).

Now, one may or may not do without toilet paper when in possession of a functioning bidet (as I myself discovered pretty recently, there are two camps in bidet usage: with and without preliminary use of toilet paper; I always thought that the standard was to use the paper first, and then wash up in the bidet, but apparently, this is not the case for everyone), but one could hope that nations that weren't used to the bidet before may have found enlightenment, with this piece of bathroom furniture finding its due place in more homes. And hopefully get used as it should.

Hands and feet and breathing customs

There are several customs that have been affected by the pandemic, at least during its peak (in the nations that have successfully taken action against it). A common example is handshakes, for which alternatives such as the elbow bump or the so-called “Wuhan shake” foot tap have taken the spotlight. It'll be interesting to see how long these alternatives will last, but there's actually more customs that would need rethinking “in a pandemic world” —even though they have received little to no media attention.

Blowing the candles on a birthday cake is a good example: in a time where everybody should be using masks to protect oneself and the others from the spread of this viral infection, exhaling strong enough to suffocate the flame of a candle is not exactly the most health-centric action one could take. Alternatives have been attempted, but I'm not seeing them really catching on, especially with the younger kids (luckily, I would say, as they would not infrequently result in disaster, I fear).

Some have remarked that the greatest divide in the results concerning the containment of the pandemic has not been political initiative, technological progress or wealth of a nation as much as geography, with a remarkable density of success stories among the Asian nations compared to any other continent.

I'm left wondering how much of this is a byproduct of certain cultural aspects common among many Asian countries, and particularly social customs such as removing one's shoes when entering a house (consistently more widespread in than outside of Asia), or the considerably more frequent usage of face masks when out in public (even without a raging pandemic, whereas in certain nations plenty of people can't seem to grasp the importance of such a simple habit even during).

The masks of freedom

A surprisingly contentious theme during the pandemic has been the use of masks. Leaving aside the discouraging paranoia against them shown above, one of the points that seems to have been surprisingly poorly communicated is that the main objective of masks is not as much to protect oneself, but also, and maybe most importantly, to protect others1. Alternatively, the message has passed, but nobody actually cares about the health of others, not even if the solution is simple and for the most part not particularly burdensome (unless you also wear glasses) for day-to-day activities.

In my whereabouts, for example, a recent trip to the mall has been fascinatingly exemplary in this regard: on the upside, there were only very few people without masks; on the downside, there were also very few people using the masks correctly, nose out being a very common mistake, and “chin support” (hard to think of a more inconsequential way to use the mask) being a not too far second.

Now, there would be much to say about the (un)ethical disregard for the health of others by those who insist on refusing to wear a mask2, or more in general about the overall effectiveness of relying on self-control to ensure that everybody's good health is preserved, but in this context I'd rather point to another ironic aspect about mask wearing.

The irony is that while conservatives and self-professed libertarians in nations such as the USA refuse to wear masks as a protest against such a liberticide imposition, more privacy-conscious individuals appreciate the thwarting effect these masks have on facial recognition. Unsurprisingly, this is something the people of Hong Kong have been leveraging since before the pandemic in their (so far unsuccessful) protests against the China power grab; and just as unsurprisingly, tech firms in China have been hard at work in making facial recognition work even in presence of masks. Oh, and if you think this is just an issue with “those repressive communist regimes”, don't delude yourself: even in nations like the UK the powers that be are more than happy with the development of similar tech. There's a reason why the EFF is fighting for restrictions on the use (and abuse) of face recognition tech


The slowdowns caused by the containment measures against the spread of the pandemic (and particularly the lockdowns) have had clear beneficial effects on the environment. Cleaner air and water have been observed all around the world, with prospective health benefits for the population, and even, curiously, improved energy production from solar. While not surprising on a intuitive and qualitative level, the effect is worth of being studied, because the relationship is not as simple as may be initially thought, related as it is to the distribution of the many factors that contribute to pollution: pollution related to personal transportation, for example, has decreased significantly, whereas that related to manufacturing has only decreased in proportion to the impact on work.

Most important, and just as unsurprising, the benefits have mostly been temporary, yet people's discovery what clean air feels and looks like may increase pressure towards longer-term solutions for a cleaner environment. Which leads to an interesting question: how much do people not care about the environment because they have simply forgotten, or even worse never experienced, what a clean environment actually feels like?

I was actually pondering this a few days ago while sitting on a beach, with a not-really-clean sea in front of me: this is what most people know about the sea, whereas I have memories of the clean seas from elsewhere, from my childhood. How much do the difference in experience affect one's sensitivity to these themes?

Then again I'm reminded by the little care a lot of people show about their surroundings (be it other people or living spaces), and are left to wonder how much of it is (human) nature, and how much of it is nurture, or lack thereof. And thus maybe, but hopefully not, the only long-lasting change from the pandemic will be single-use PPEs becoming the cigarette butts of pollution of the next decade.


One of the powerful things about the habits that we (might, could have) learned during the pandemic is that they are actually good habits: even if not as strictly or thoroughly as during the pandemic, they are habits that would benefit us all in our daily lives, even under normal circumstances, by helping reduce the diffusion of many kinds of more and less grave sickness that adopt similar spreading mechanisms and suffer from the similar kinds of interventions. Jokes have been made about other viruses suffering from the COVID-19 response. What remains to be seen is how successfully this will be adopted by the current generations and passed on to the next.


Employment and work have been massively affected, frequently negatively, by the pandemic. In fact, economic worries have been almost constantly in sharp contrast with health and safety concerns for the whole population, and even though it's has been clear from the very beginning that the classic workplace is and remains a hotbed for outbreaks { }, there's a massive inertia against redesigning workplaces, improving worker's equipment, and more in general rethink the whole concept of work, to reduce the associated risks of contagion.

Working from home

One of the most impressive changes that have been triggered by the pandemic, especially in places where lockdowns have been mandated by the regional or national authorities, has been the transition from the classic office work to remote work.

What makes this change most impressive is not only the rapidity with which the solution was adopted, but the sharp contrast with the general mentality up to a moment before, where —with the exception of some more forward-looking exceptions— remote work was for the most part treated as a special benefit to be conceded only under extreme circumstances —if considered as a possibility at all.

One can come up any kind of explanations and justifications for the previous attitude, but I think that for the most part it boils down to control, and a lack of maturity (when no total inability) in assessing the capabilities and “performance” of the workers.

(Ironically, the sudden choice (or need) to shift work from in-office to remote also ensured that this was done in the worst possible way, and in the worst possible circumstances. Issues went from the lack of appropriate infrastructure (either in the office itself, or at the workers' homes) to the overlap of the transition with a moment where everybody (and in particular: children) had to stay home as well, with significant impacts on the effective productivity of the remote workers. But, to be fair, the latter has been an issue for everyone, including those for which remote work was already a reality.)

Of course, this isn't the whole story, there are jobs for which remote working does create issues, and I'm not referring only to e.g. manufacturing, where the need to operate machinery requires workplace presence: even restricting to the tertiary/service sector, where office work is predominant and mostly “remoteable”, there are circumstances where the switch to remote work presents issues.

The most famously debated point in this regard has been remote teaching: the emergency switch has uncovered massive deficiencies in infrastructure, amplified what ultimately boils down to census-based access to learning, and highlighted the difference in quality, preparation and adaptability of the teachers. It has also opened the door to massive penetration of technological giants such as Microsoft and Google into the field, with little or no oversight (a topic that deserves its own discussion).

Less discussed problematic situations are the fields where “trust is not enough”, and large-scale technical solutions are adopted to prevent exfiltration of information: extremely restrictive firewalls, limited networking, strict rules against BYOD, etc (think: nuclear research).

Of course, remote work is not a universal opportunity, and as with all limited opportunities, it's the opposite of an equalizer: be it by census, location, education level, type of work (which again strongly correlates with wealth and opportunities), infrastructure, the ones most affected by the crisis and the inability to convert working style from in-place to remote end up being always the more vulnerable categories.

Essential or not

While lockdowns remain the most effective countermeasure to the spread of a pandemic, especially when enacted early on, they have a non-trivial socio-economic impact. Still, most nations have enacted lockdowns during the COVID-19 pandemic, at different times, for different periods, of varying degrees, and with different results.

One of the most contentious points for the lockdown is the choice about which activities can/should/must close and which can/should/must be allowed to continue to operate, and under which conditions. This is a non-trivial balancing act between placing enough restrictions to meaningfully reduce the spread of the contagion3 and still provide people with the means to survive in good health.

In most nations, this has led to the differentiation between essential and non-essential work, with the former category encompassing the activities that cover the production and distribution of what are deemed “survival” goods and services (e.g. food, healthcare) and “everything else” falling in the other category.

There are a few issues with this distinction. The most obvious is that there is a certain degree of subjectiveness in where to draw the line between essential and not: while certain things are quite obviously essential (e.g. food), and others are, at least in the short, run most obviously not (e.g. luxury goods), there are others for which the choice is not as clear cut: for example, how essential is it for survival to be able to get new clothes in the short term?

A practical issue closely related to the fuzziness of essentiality is the operating requirements for the essential services: “directly” essential activities rely on a number of ancillary and satellite activities to remain fully operational, and this creates a cascade of dependencies of activities that need to remain open so that the essential ones can. This may render the lockdown measures much less effective than expected: in Italy for example, despite the formally extremely strict (and long) lockdown, the majority of workers remained active (with large differences between regions and categories), many of which commuters; unsurprisingly, the spread of the contagion was found to correlate directly with how many workers remained active.

Finally, a counter-perspective presented by neoliberalist or more in general “free-market” oriented economists, posits that all work is essential, if not else because, without their work, workers would be unable to afford even the most bare of necessities. Of course, the objection is only relevant if —consistently with the mentioned economic philosophy— we disregard any social welfare option that would balance the loss associated with the closure of non-essential activities.

Aside from the irony of economists, the arguably “most non-essential workers” (humanity has survived for millenia without their work), objecting to the arbitrariness of the distinction between essential and non-essential work (but then again, theirs is a work can for the most part be done “remotely”, and would thus not be affected by lockdown measures), the discussion ultimately becomes one to answer a simple question (with no simple answer): how many, and whose, lives are we willing to sacrifice in our objection to mandatory protection?

In some sense, this is the economic equivalent of the masks issue, and again becomes a matter of (personal, and social) trust in “the government” versus “the people”. And when pondering how much we'd put trust in the latter, let us keep in mind how even the simplest of pro-social-health measures get fought, or the human cost of the delays in enacting lockdowns due to pressure from special interest groups representing a minority of the population, but with large economic (and thus political) influence, or the preference for high-tech solutions that track workers instead of providing adequate PPEs, or the cop-out of “selling at cost” the PPEs to the exploited “employees-but-not-really” of the “gig economy”. But this will be discussed further down.

Satellite effects

The transition to remote work, and more in general the “lockdown experience” has had several consequences, and it's interesting at some of the more “satellite” ones.

Workwise, the shift from office work to remote work has far-fetching economic consequences on that part of the economy that depends on the presence and (usually) concentration of offices in specific parts of town: from the rent of office space to the food and services in “central” locations that thrived on the people circulating during lunch breaks or at work check-in/check-out times, for example, have suffered significantly from the sudden shift to remote work.

Remote work also provides greater possibilities to improve work/life balance, if managed correctly; it can also lead to much worse work/life balance, but not much more so than the always on call mentality that has been growing for years now in many office workplaces anyway. Of course, much of it, in both direction, depends on personal attitude, discipline, motivation and external factors (such as presence of children and their age, or marital status and consort working condition).

(An example of a somewhat unexpected satellite change is the loss of audience for radio broadcasts due to less commuting. An example of a lost opportunity of reflection on work/life balance is the hidden significance of this loss, i.e. the amount of time that was wasted —for the lack of a better word— commuting from house to work and back, time that would in most cases have been better spent in any other way, be it enjoying life or being productive at work.)

The two experiences (the satellite and the personal) are in sharp contrast, and it's unsurprising to see the growing pressure from interested parties to go back to the traditional model, often with debatable communication choices, such as by implying that the remote work (or its so-called “smart working” relative) isn't real work.

In the opposite direction, we see court decisions such as the Swiss top court ruling that requires employer to contribute to employee's rent payment in case of remote working. Such an initiative, and more in general a move in the direction where employers support the personal and technical infrastructure required for employees to work from home would help reduce some of the inequality of opportunity for remote work, while at the same time reducing the “office space” cost savings for the employers.

Rethinking work, rethinking life

Pressure to prevent or reverse the (prospectively longer-term) social changes triggered by the pandemic and their influence on the economy, work and life comes unsurprisingly frequently from those that built their fortune on the exploitation of the previous status quo. An interesting example of this can be found in the Swiss employer's association (Centre patronal) document from April 15, 2020 and titled Vers une stratégie de sortie de crise (PDF warning, and mirror), i.e. «Towards a crisis exit strategy».

There's a very interesting phrasing in the document:

Il faut éviter que certaines personnes soient tentées de s’habituer à la situation actuelle, voire de se laisser séduire par ses apparences insidieuses: beaucoup moins de circulation sur les routes, un ciel déserté par le trafic aérien, moins de bruit et d’agitation, le retour à une vie simple et à un commerce local, la fin de la société de consommation

One must avoid that people be tempted to get used to the current situation, or to be seduced by its insidious appearances: much less circulation on the roads, a sky deserted of air traffic, less noise and stress, a return to a simple life and local commerce, the end of the consumer society

The warning is obviously not motivated in terms of the benefit lost by those whose large personal wealth is built upon the consumer society and the stressful working conditions that support it, but is phrased in terms of the least fortunate that have been hit the hardest by the economic contraction associated with the pandemic and the emergency measures adopted to contain it.

The reason why this is interesting is not so much that it's false, but the fact that it's an excellent example of how one can state the truth and still be dishonest. Looking at the data, it is indeed quite clear that those that have been affected the most negatively by the economic contraction have been the bottom and the top layers of the wealth distribution, the rich and the poor4 —although, of course, the impact the corresponding loss have had on the life of the groups is very different, and so is their possibility for recovering from the loss.

And therein lies the dishonesty: hastening the return to life as it were before the pandemic wouldn't help the least fortunate in recovering their pandemic-associated losses, because their fortunes do not depend on the previous lifestyle —in contrast to those who have built their fortune on that, and who coincidentally are the ones represented by the Centre patronal and pressuring for the return. The “exit strategy” of reverting tout court to the previous model isn't a universal exit strategy, but one that benefits only a very specific section of the population. Even worse, the document implicitly presents a false dichotomy, as if the return to the previous lifestyle and system was the only alternative to the catastrophic loss for the poor.

In many ways, the current economic situation is the “wealth and opportunity” equivalent of the food crisis, and is explained by the conflation of two very different issues: scarcity and distribution —a distinction that is brilliantly exemplified by surplusses of food being destroyed in the face of hunger. This kind of remarks are not new, and can in fact be traced back by 40 years if not more.

Of course, if for the food we haven't found a practical solution after four decades, it's hard to believe we'd find one for the more general “wealth and opportunity” issue, despite the opportunity to rethink the whole system offered by the braking caused by the pandemic. A change in lifestyle exposes different opportunities, and opens a window for other, deeper changes in the system.

Again, among the most fortunate there are people that are already positioned in a way that allows them to better exploit the opportunities offered by the change in lifestyle: Amazon's Bezos and Facebook's Zuckerberg massively benefited from the lockdown, and I don't hear them complaining about the change, or pressuring for a return to the old ways.

(Of course, the fact that they could easily switch to remote work, or could work around the lockdowns by being classified as essential, ignore the need for safety measures for the workers, and fire them if they happened to rebel helped a lot —and draws a less poetic picture.)

Smaller parties however can also find solid opportunities. The pandemic, for example, is how my family discovered and started using a local online greengrocer: you order on the website, they deliver to your footsteps; yet behind the technology, they are still a local shop, the quality is comparable when not better to what one can find at the supermarket, and for the most part cheaper. Similar realities have existed for years (for example, a colleague of mine has been shopping for years from a fishmonger whose primary communication channel is WhatsApp); it's likely that the pandemic will accelerate adoption and spread of these kind of realities —at least where they are possible.

There are downsides to things moving in this direction.

For the buyer, the counterweight for time saved in “shopping from home” is in reduced information and higher risk: e.g. hand-picking one's own groceries allows better selection and fine-tuning of the amounts («product X is available, but the ripeness isn't exactly what I'm looking for, except maybe for these couple of items»).

For the worker, the shift in operational mode will require a shift in competences: less “front office”, more logistics. The danger here is that while the former can, at least in some fields, the front worker can provided added value (e.g. a good bookseller in a bookshop can suggest, direct, inform the buyer), the latter is a more easily “replaceable” role: it requires less specialization (and has thus a wider pool of competing workers) and most importantly we're moving towards more massive automation in the field (reducing the need for workers at all).

Downsides for the employer/entrepreneur, aside from missing the value-add of competent front workers in sectors where this matters, is the need to rely on distribution networks on both sides of the chain, procurement and sale, and the corresponding issue with scale: if you're small enough, or large enough, you can manage your own (outgoing, and incoming in fact) distribution chains, but if you're not, you have to rely on middlemen, with all the associated negatives.

For the system as a whole, there's higher fragility: any disruption in transportation and distribution will negatively affect both sides of the transaction (again, this has been the case in some nations for the food distribution during the pandemic, as mentioned above).

But most importantly, even this shift doesn't really solve the underlying problem, which is structural and infrastructural. Infrastructural, because it depends essentially on the availability and quality of and access to infrastructure (physical and electronic pathways, education, health). Structural, because the drift towards the more aggressive forms of capitalism we've seen in the last four decades century have amplified all the intrinsic limits of the system, starting from the poverty trap5.

The pandemic, in many ways, has accelerated (or is accelerating) changes that would have happened anyway, over time. The upside is that the drastic timing of the changes has highlighted aspects that are usually less dramatically noticeable in a more gradual degradation —which has helped some people to lend (and ask for) more attention to the situation, and to reflect more carefully about its causes and possible solutions. The downside is that too much information is still in the hands that are most interested in preserving the statu quo, and in the useful idiots that delude themselves in thinking that the amplification of the structural problems in the current system is the solution to its deficiencies —and the lessons that could have been learned are lost in the chase of scapegoats and misrepresentations to feel safe in one's own beliefs.

  1. to be more specific, the direction which filtering happens depends on the type of mask, but for the commonly suggested, cheap, disposable surgical mask, the main purpose is to reduce the risk of the wearer spreading the virus to others, rather than the other way around. ↩

  2. this could be readily interpreted as a violation of the others' negative right to good health, but this is a discussion for a different time { Link to the Mist of NAP when it's ready }. ↩

  3. the fact that workplaces are important hotspots both for workers and patrons does not exactly come as a surprise. ↩

  4. Ironically, the least affected seems to have been the ever-disappearing middle-class. And of course, among the richest, those who were better positioned to profit from the change in lifestyle were not affected negatively —but actually the opposite. The findings may be surprising, but similar results have also been found for other, past crises, leading to what has been described as the elephant curve. ↩

  5. a recent, at the time of writing, essay on the topic, with solid data in support of the hypothesis, is «Why do People stay Poor?» by Claire Balboni et al.. { when published. } ↩

L'APParenza dell'IMMUNItà al COVID-19


Già alla seconda settimana dall'inizio delle misure di “quarantena” adottate su scala nazionale dal governo Conte II (9 marzo 2020), era cominciata su Internet (ad opera ad esempio di figure come Fabio Sabatini e Roberto Burioni) una campagna sulla necessità di adottare un sistema di tracciamento automatico dei possibili contagi “come in Corea del Sud”.

Questa possibilità di tracciamento “di massa” sarebbe necessaria —a detta dei suddetti— per poter entrare in sicurezza nella famosa “fase 2” della gestione dell'epidemia: il rilassamento della quarantena e la ripresa della libera circolazione dei cittadini.

È con questo spirito (almeno di facciata) che l'iniziativa è stata adottata dal governo, che —con la fretta, la confusione e la mancanza di chiarezza e trasparenza che hanno caratterizzato un po' tutti gli interventi in tema “gestione dell'epidemia”— ha affidato la creazione dell'app in questione (denominata «Immuni») (archivio) alla compagnia software Bending Spoons.

Invero, le scelte fatte, le tempistiche, e la direzione verso cui sta evolvendo l'azione di governo (come ad esempio le proposte in discussione su quanto rendere volontaria l'installazione dell'app, o la sua sostituzione con braccialetti elettronici che ricordano neanche troppo da lontano quelli adottati per gli arresti domiciliari) fanno sollevare parecchi dubbi, per nulla sfumati dai continui riferimenti (riscontrabili ad esempio sulla già citata pagina dell'Agenda Digitale) a simili iniziative europee ed extra-europee.

Il sospetto maggiore che emerge, e sul quale torneremo in coda a questo testo, è che lo scopo principale di questa app non sia quello —dichiarato— di mantenere sotto controllo l'epidemia pur allentando le draconiane regole di quarantena a cui la popolazione ormai si manifesta abbondantemente insofferente e garantendo comunque la salute dei cittadini.

Nella migliore delle ipotesi, come vedremo, vista la fretta e le strategie di comunicazione adottate, sembra piuttosto che l'obiettivo principale di questa app sia invece la deresponsabilizzazione dell'azione di governo: condizionare la libera circolazione all'adozione dell'app senza risolvere i dubbi sulla sua natura diventa un modo per scaricare la responsabilità della (probabile, se non inevitabile) recrudescenza dell'epidemia nella “fase 2” a fantomatici “furbetti dell'app”.

Nella peggiore delle ipotesi, d'altronde, il tutto potrebbe essere semplicemente una “prova generale” per forme ben piú invasive di monitoraggio e controllo della popolazione —intenzionale o meno che tale sia al momento.

Ma cerchiamo di capire meglio perché, pur non essendo necessariamente opposti a priori a qualche forma di tracciamento, vi è ben ragione di dubitare della forma e dei tempi scelti al momento dal governo —e senza nemmeno cadere nel bias di una (non necessariamente immeritata) mancanza di fiducia nei confronti dello stesso.

Punto primo: priorità

Fin dai primi tempi di campagna mediatica nei per il tracciamento digitale, l'aspetto piú sospetto è stato il peso dato a tal servizio vis-à-vis con altri, ben piú importanti metodi di tracciamento e sorveglianza (attiva) della diffusione dell'epidemia, nonché del suo contenimento.

Priorità assoluta, per il corretto tracciamento dell'epidemia, è capire chi è infetto e chi no: questo richiede “tamponi a tappeto” (con buona pace di Crisanti, a cui l'espressione non piace) —il che non significa fare tamponi a tutti in maniera scriteriata, ma significa comunque fare molti piú tamponi di quanti ne sono stati fatti, soprattutto in quelle regioni come la Lombardia dove è ormai evidente pure a chi ha vissuto finora con la testa nascosta sotto la sabbia che la selettività nell'applicazione dei tamponi ha portato ad una disastrosa (se non criminale) sottostima dei contagi.

Ovviamente, questo richiede maggiore disponibilità di tamponi e minore speculazione (esempi si trovano in tutta Italia, dalla Lombardia alle Marche). Se un'azione di governo è opportuna, dovrebbe essere in primis in tal senso.

Ma non basta: avendo a disposizione un meccanismo funzionante (e possibilmente rapido) per determinare gli infetti, prima di considerare il tracciamento occorre provvedere a minimizzare le possibilità di contagio: anche in presenza di adeguato monitoraggio e tracciamento automatico, rimane aperta una finestra temporale per il contagio che va minimizzata —e la sua minimizzazione comporta un'adeguata disponibilità di dispositivi di protezione individuali (DPI): guanti, mascherine, visiere —la cui mancata distribuzione ai lavoratori (soprattutto, ma non solo, quelli ospedalieri e nelle residenze sanitarie assistenziali (RSA)) è stata grave concausa della drammatica situazione epidemiologica della Lombardia.

(E parliamo di DPI, non di costose strategie per evitarne l'uso ed abituare i dipendenti ad una superflua —dal punto di vista epidemiologico— sorveglianza continua: anche perché sappiamo benissimo cosa succede quando gli allarmi disturbano il lavoro, e non è “risolviamo il problema per cui c'è l'allarme”. Quindi parliamo di DPI —saranno anche piú economici come soluzione.)

Anche qui, se un'azione di governo è opportuna, dovrebbe essere in secundis (dopo la sorveglianza attiva) nel garantire adeguata protezione: incentivare quindi l'adozione (e la disponibilità) di DPI, a livello privato individuale nonché a livello aziendale, e punire l'inadeguatezza della stessa (ad esempio, per le aziende che venissero trovate inadempienti sulla protezione dei lavoratori durante un'ispezione —ispezioni che, altresí, non dovrebbero mancare).

Solo dopo aver dato la dovuta priorità a sorveglianza e protezione può aver senso andare a valutare l'opportunità (ben diversa dalla necessità) di forme —adeguatamente ristrette, anonime, garantite e volontarie— di tracciamento dei contatti —la famigerata “app”.

E non a caso parliamo di opportunità, e non di necessità, perché benché se ne discuta favorevolmente a livello europeo, l'efficacia (se non addirittura l'utilità) del contact tracing “digitale” nelle forme attualmente discusse rimane dubbia.

Punto secondo: il protocollo è piú importante della singola app

Condivido gran parte di quanto scritto nella Lettera aperta ai decisori del Nexa (Politecnico di Torino). Uno dei (pochi) punti su cui dissento è la richiesta: «una sola app; una sola finalità; per il tempo strettamente necessario», e specificamente la richiesta di “singolarità” dell'app.

La richiesta è accettabile nell'ottica dell'offerta “governativa”, ma è secondaria rispetto a quello che viene evidenziato nel secondo capoverso del successivo punto («trasparenze, verificabilità e sicurezza») della stessa Lettera:

Il protocollo su cui si basa l’applicazione e le specifiche dell’architettura del sistema, al pari dei documenti che hanno portato e porteranno alle scelte dei decisori, inclusa la necessaria valutazione d’impatto e i preventivi pareri del Garante della Privacy, devono essere pubblici e disponibili con licenza libera, e quindi liberamente verificabili.

Al di fuori del legal-burocratese, si vorrebbe (o dovrebbe) evidenziare l'importanza dell'adozione di un protocollo (degli strumenti —telefonini, braccialetti— tra di loro e con gli eventuali server) che sia pubblicamente documentato, verificabile, e che abbia passato il vaglio di un attento scrutinio di esperti in sicurezza e privacy.

La priorità del protocollo sull'app è essenziale, e permette —tra l'altro— la possibilità di implementazioni multiple indipendenti, evitando i rischi della monocultura.

Implementazioni multiple indipendenti aiutano a garantire la completezza della documentazione del protocollo: eventuali punti dubbi del protocollo (o suscettibili di interpretazione) potranno essere meglio evidenziati (e risolti). Implementazioni multiple indipendenti aiutano anche a garantire la correttezza di ciascuna di esse, nonché la resilienza del protocollo stesso, tramite verifica dell'interoperabilità tra le varie implementazioni.

L'obiezione (tecnica) che si potrebbe sollevare alla possibilità molteplicità delle implementazioni è il rischio della diffusione, da parte di malintenzionati, di “app” di pseudo-tracciamento, il cui vero intento sia semplicemente intrufolarsi nel cellulare dell'ingenuo utente per comprometterne la sicurezza o la privacy.

Tale rischio, benché concreto, non è legato all'unicità dell'app “ufficiale” —già adesso circolano senza ritegno truffe a base di COVID-19: già solo la propaganda pro-tracciamento ha aperto le porte alla truffa, e la difesa contro questo è un'informazione piú completa e trasparente, non l'opaca oscurità che avvolge l'attuale processo decisionale riguardo l'app “ufficiale”.

Punto terzo: trasparenza e fiducia

La questione trasparenza non riguarda solo la comunicazione verso il pubblico, ma anche le scelte adottate per lo sviluppo del protocollo e dell'eventuale app “ufficiale”.

Pecche nel procedimento si ritrovano però già nella comunicazione al pubblico: la succitata pagina di Agenda Digitale sull'app «Immuni», ad esempio, traccia dubbi paralleli tra Immuni e l'iniziativa (privata!) pan-europea PEPP-PT (Pan-european privacy-preserving proximity tracing) il cui unico obiettivo sembrerebbe di tentare una legittimazione “oggettiva” (o quanto meno europea) della scelta locale, e non solo perché rimane non chiaro quanto dello “standard” PEPP-PT verrà seguito in Immuni.

A complicare le cose contribuisce anche la recente evoluzione del PEPP-PT stesso, che sembra aver abbandonato la scelta iniziale di seguire il protocollo decentralizzato DP-3T (Decentralized Privacy-Preserving Proximity Tracing) sviluppato sotto l'egida dell'EPFL —voltafaccia che ha causato la defezione dal consorzio PEPP-PT di grossi esponenti quali l'EPFL stesso ed i suoi partner nello sviluppo del DP-3T.

Pubblicizzare quindi la (per giunta parziale) adesione di Immuni al PEPP-PT non contribuisce al clima di trasparenza e fiducia necessario per favorire la volontaria adesione degli utenti all'utilizzo dell'app.

Ma, come dicevo, la trasparenza può (ed anzi deve) andare oltre. Un aspetto evidenziato ad esempio anche nella succitata «Lettera aperta ai decisori» è la necessità di codice aperto e licenza libera (FLOSS: Free/Libre Open Source Software) per l'app in questione. Questo rientra piú in generale nell'iniziativa europea Public money, public code, ma nello specifico è una necessità per assicurare il pubblico sul fatto che l'app faccia tutto e solo quello che viene pubblicamente dichiarato faccia, nel modo in cui dice di farlo.

La soluzione FLOSS per l'app risulterebbe non solo in maggior fiducia (o quanto meno minore scetticismo) nei confronti dell'app “ufficiale”, ma permetterebbe anche a chi preferisse “non fidarsi” comunque dei binari ufficiali di compilare da sé l'app (o affidarsi a repository noti per l'automazione del processo “dal sorgente all'eseguibile”, come F-Droid).

L'eventuale timore che app “non ufficiali”, magari modificate, possano creare problemi si dovrebbe piuttosto riflettere sull'inadeguata sicurezza del protocollo utilizzato, riportandoci alla superiore importanza di questo rispetto all'app: se il protocollo è talmente fragile da non poter reggere app “non ufficiali”, allora è altamente a rischio di attacco da parte di malintenzionati, e va pertanto evitato indipendentemente dall'apertura del codice dell'app.

Un discorso analogo varrebbe ovviamente non solo per l'app (lato client), ma anche per la sua controparte lato server, soprattutto nel caso di scelta di una soluzione centralizzata piuttosto che distribuita. Ovviamente nel caso del server è molto piú difficile verificare che il codice del server eventualmente pubblicato corrisponda effettivamente a quello utilizzato.

Benché l'impatto di questa incertezza sia limitato nel caso in cui il protocollo e l'app rispettino non solo i requisiti di trasparenza e sicurezza, ma anche quelli di anonimia (non c'è da preoccuparsi che il server possa tenere dati non anonimi oltre il previsto, o cederli a terze parti, se non vi sono dati non anonimi esposti dal protocollo), rimane comunque preferibile una soluzione in cui il problema non si ponga affatto: in termini di trasparenza e fiducia, è quindi preferibile di gran lunga una soluzione decentralizzata.

L'importanza dell'aspetto fiduciario (e quindi della trasparenza senza la quale esso viene a mancare) è evidenziato anche nella succitata review dell'Ada Lovelace Institute, nonché nella Lettera aperta ai decisori del Nexa: l'eventuale efficacia del contact tracing richiede un'installazione “di massa” (oltre il 60%), e questa può essere raggiunta solo con una di tre opzioni: la coercizione (obbligo ad installare l'app), il plagio/inganno (terrorismo psicologico, condanna emotiva a chi vi si oppone), o la convinzione —e quest'ultima, volendo rispettare la facciata dell'“installazione volontaria”, richiede fiducia nei confronti della specifica tecnica adottata per il tracciamento.

Incamminàti sulla strada sbagliata

Diventa quindi palese come, anche concedendo ai “decisori” il beneficio del dubbio sulle miglior intenzioni (che notoriamente lastricano la via dell'Inferno), la strada su cui ci si sia incamminati al momento non sia quella piú saggia.

Manca la priorità necessaria alla disponibilità dei tamponi, senza i quali l'app è inutile.

Manca la priorità necessaria alla disponibilità di dispositivi di protezioni individuali, senza i quali l'app è di scarsa utilità.

Manca la necessaria trasparenza nello sviluppo del protocollo e dell'infrastruttura a cui l'app dovrebbe poggiarsi.

Sono state fatte scelte discutibili, se non addirittura sospette, circa la natura stessa dell'architettura adottata (centralizzata, piuttosto che decentralizzata).

Manca —manifestamente— l'intenzione di mantenere pubblico il codice dell'app.

Ed a causa di tutto questo, viene a mancare la capacità di convincere in maniera naturale i cittadini sulla sua adozione.

Porre rimedio senza mettere a rischio —anzi, migliorando— la potenzialità utilità dell'app: un cambio di direzione, una maggiore trasparenza sul processo decisionale e nello sviluppo del protocollo, l'adozione di una soluzione decentralizzata, richiedere all'esecutore l'apertura del codice sorgente —tutto ben alla portata del governo, avendone la volontà.

Ci troviamo davanti invece ad una strategia comunicativa che rivela ben altri intenti: dalla proposta di rendere l'app obbligatoria se non sarà adottata da un numero sufficiente di persone in maniera spontanea, al “no-trax” pubblicizzato da Burioni per bollare chiunque critichi le tempistiche ed i risultati delle attuali scelte governative —come se alla base di tali obiezioni vi sia una imprescindibile opposizione al tracciamento, piuttosto che le ragionevoli perplessità sugli specifici aspetti della sua realizzazione.

Sarebbe ben piú facile convincere la popolazione all'adozione spontanea dell'app mettendo tutto in chiaro. Come ha risposto Paolo Attivissimo a Burioni:

Non no-trax, ma no-tricks.

Ci siamo quasi?

Secondo me con un po' di fantasia si possono trovare solidi riscontri tra le profezie mistiche rivelate nell'Apocalisse di Giovanni ed eventi moderni. Senza neanche troppo sforzi si arriva tranquillamente ai primi cinque o sei sigilli:

  1. Il primo dei quattro cavalieri:

    E vidi: ecco, un cavallo bianco. Colui che lo cavalcava aveva un arco; gli fu data una corona ed egli uscì vittorioso per vincere ancora.

    Si tratta ovviamente della regina Vittoria e dell'impero britannico.

  2. Il secondo dei quattro cavalieri:

    Allora uscì un altro cavallo, rosso fuoco. A colui che lo cavalcava fu dato potere di togliere la pace dalla terra e di far sì che si sgozzassero a vicenda, e gli fu consegnata una grande spada.

    Non per nulla il XX secolo è stato anche chiamato Il Secolo breve: tra due guerre mondiali ed una guerra fredda non meno mondiale, possiamo dire senz'altro che è stato un secolo dominato dal secondo cavaliere dell'Apocalisse.

  3. Il terzo dei quattro cavalieri:

    E vidi: ecco, un cavallo nero. Colui che lo cavalcava aveva una bilancia in mano. E udii come una voce in mezzo ai quattro esseri viventi, che diceva: «Una misura di grano per un denaro, e tre misure d'orzo per un denaro! Olio e vino non siano toccati».

    L'abbondanza del superfluo e la ristrettezza delle necessità sono i cardini dello schiavismo del terzo millennio e dell'economia disumana votata al profitto a qualsiasi costo.

  4. Il quarto dei quattro cavalieri:

    E vidi: ecco, un cavallo verde. Colui che lo cavalcava si chiamava Morte e gli inferi lo seguivano. Fu dato loro potere sopra un quarto della terra, per sterminare con la spada, con la fame, con la peste e con le fiere della terra.

    Niente di piú attuale: l'esercito schierato, i supermercati vuoti, la pandemia e persino le bestie feroci.

  5. Alle anime degli immolati viene detto di aspettare. Di questo probabilmente non vi saranno segni nel mondo sensibile. (Aggiornamento dell'11 aprile 2020: d'altronde, questa quarenta che viene prolungata di settimana in settimana potrebbe benissimo esserne una concreta metafora.)

  6. La fine del mondo:

    E vidi, quando l'Agnello aprì il sesto sigillo, e vi fu un violento terremoto. Il sole divenne nero come un sacco di crine, la luna diventò tutta simile a sangue, le stelle del cielo si abbatterono sopra la terra, come un albero di fichi, sbattuto dalla bufera, lascia cadere i frutti non ancora maturi. Il cielo si ritirò come un rotolo che si avvolge, e tutti i monti e le isole furono smossi dal loro posto.

    Dovremmo essere circa a questo punto. Certo il recente sisma a Zagabria non promette bene, ma è forse presto per dirlo: se le tempistiche tra i sigilli non mutano, i segni del sesto potremmo non vederli prima dellla seconda metà di questo secolo, se non con l'inizio del successivo. Nel qual caso, un'esplosione simil Tambora (ad esempio dei Campi Flegrei) sarebbe da sola sufficiente a coprire un buon numero dei segni di questo sigillo. Per il momento ci accontenteremo del terremoto 7.5 in Kamchatka e dell'attività della Montagna di Fuoco. (Aggiornamento all'11 aprile 2020: ed anche il Krakatoa ci mette il suo.)

Il vero problema? Siamo talmente in zona “non è vero, ma ci credo” che non sarei sorpreso di scoprire che c'è gente che ci crede davvero. D'altronde, non manca certo gente a cui piaccia far previsioni, pur continuando a sbagliare, quindi perché non farlo anche per noia o per gioco? 'nsamai ci s'azzecca.

Freedom as a paradox

This is (mostly) the English translation of an Italian article I wrote several years ago. There are a few small differences, due partly to that article referring other articles that are in Italian and for which I didn't write a translation, partly to some stylistic preference, and partly to my evolving knowledge —although none of it has so far affected my current belief on the matter, nor alter the core of this post.

When talking about freedom, several things can be said about the use and abuse of the concept, or even its ontologically possibility.

But what I want to discuss here is the paradoxical, when not even self-contradictory nature of the concept of freedom, and its application in the real world.

There are a few necessary premises before it even makes sense to talk about freedom at all; we will therefore assume in what follows that human beings have some quid that we call free will, and that gives them the possibility to choose how to act, within the limits of the laws of nature (that we shall assume by and large deterministic).

We can also take for granted that a human being, as long as they don't find themselves interacting with another human being (or other being provided with free will), is free (to act as they believe most appropriate), but also that in such a context the concept of freedom isn't particularly meaningful.

Indeed, and here we can already see the first paradox, it's more meaningful to define freedom in negative rather than positive terms: talking about freedom is most valuable when freedom is understood as freedom to not be bound by others. Hence the famous maxim that «a person's freedom ends where another's freedom begins» which, paraphrasing Giorgio Gaber, is a «romantic and evocative expression», but doesn't tell us anything about how (or where) the boundary between one's own freedom and that of others should be drawn.

Rather than looking more in depth into this rich subject, we could even remark that the whole discussion could be closed right now with a simple consideration: a being is either free (if they don't interact, directly or indirectly, with any other) or not (since in the interaction with another being they'll inevitably find themselves conditioned or limited in their choices).

But obviously that's not particularly interesting. The true core, when talking about freedom, is precisely in the determination of the limit that bounds one's freedom in relation to others (each of the others individually, and of the others as a collective), or at the very least in the determination of the criteria by which such boundaries could be determined. It's this, after all, the point of contention when debating political, ethical or moral philosophy: if there are boundaries that could be drawn other than the ‘natural’ one dictated by the power difference (however intended), and if so which, and how.

Because of this, ultimately in practice it becomes more important to discuss about freedom in the plural sense, as a collection of single freedoms (to be —or not— free to …) rather than about Freedom as an abstract concept. It's these freedoms that generally, in the formalization of the codices of society, become rights1 and that as such should (in theory) be guaranteed by society itself (the ‘how’ that's supposed to happen, or even ‘if’ it even happens in the first place is obviously an entirely different matter).

In fact, reduction from Freedom as an abstract absence of coercion to multiple single freedoms is not just something for the formally organized society: even the most staunchest supporter of anarchism will end up talking, concretely, about freedom from (taxes, government, the State, religion, …) rather than the abstract Freedom, because ultimately those are the ones that matter concretely.

And yet, this is precisely the point where the possibly most important aspects of freedom come into play: two symmetrical paradoxes riding the transition from being free and being not.

Free to be free

As a premise to the presentation of these two fundamental paradoxes of freedom, I'd like to pose a question: are there freedoms that are more important than other freedoms? Is it possible to define an (at least partial) ordering of freedoms?

I would say the answer to this question is affirmative: after all, it's precisely starting from this that one can define the limits of individual freedoms conflicting with each other. For example, the freedom of movement (the right to go undisturbed wherever one wants to) is in conflict with the right to have a corner where one can be left alone without anybody coming to disturb you. The freedom of a group of people to organize to manifest conflicts with the freedom of other people to use the same path. Which of the freedoms prevails?

Less superficially, it's clear that there are freedoms that are fundamental, in the sense that without them one wouldn't even be able to exercise the other freedoms. Obviously, such fundamental freedoms are more general, and more abstract.

We're talking, for example, to the right to life: I am free to live, and hence others are not free to kill me. Obviously, if I'm not alive I cannot exercise my being free (ignoring the metaphysical and transcendent matter of the freedom of the spirit beyond death).

We're also talking about the right to be free: the freedom to be free: I am free to be free, and therefore others are not free to coerce or constrict me.

It's important to note that these fundamental freedoms, not by chance expressed as rights, are in a certain sense passive2, expressed more precisely by a lack of freedom of others rather than active choice of the individual: where the subject can act, however, is in the defense of such freedom; and yet, in some way, the necessity itself for defence of these fundamental freedoms is a loss of freddom in itself. And this is already a small paradox, that would probably deserve to be discussed more in depth.

Free to lose one's freedom

If the freedom to be free may seem like little more than wordplay, it's in going beyond, in looking at the loss of freedom that the topic becomes more serous, and more interesting.

Obviously, we're not talking here about a loss of freedom resulting from coercion: such an event is clearly nothing more than a violation of one's freedom. But what can we say instead of the case of a permanent, voluntary loss of freedom?

Let us assume that it's realistic what's stated by the Universal Declaration of Human Rights (UDHR), that is that everyone is born free (Art. 1) and they have a right to life and liberty (Art. 2). As long as we're talking about rights, we're implying that others may not deprive us of our life, of our freedom. But this says nothing about the possibility for each of us to choose to lose one's life —or one's freedom.

Are we free to become slaves? It's important to note that such a choice would not be voluntarily reversible: slavery is something you can only get out of by an act of somebody else. In this irreversibility, voluntary loss of freedom isn't that different from a voluntary loss of life (even though the latter is, for obvious reasons, ‘more’ irreversible, unless one believes in reincarnation, or medicine offers us, in the future, the possibility to come back to life after death).

The question is thus: are we more free when we're free to not be free, or if one's freedom is unrenounceable?

The answer is not simple: on the one hand, if I'm free to give up my freedom, and as long as I do not exercise this option, I'm ‘more free’ than I would be if I wouldn't be free to give it up; on the other hand, once I do exercise my freedom to give up my freedom I would be (from that point forward) less free than if I hadn't had the option.

It's not an idle question either, even though in this article I only care about underlying the paradoxical nature. One could ask: why ever would voluntarily choose to permanently lose one's freedom? And the truth is, there are innumerable circumstances in which this can happen, especially when having to face a choice between, e.g. life and freedom.

It's not by chance that the aforementioned Declaration maintains (Art. 4) that no individual can be kept in slavery or servitude: in other words, according to the UDHR, we are not free to lose our freedom.

On the other hand, there are (self-proclaimed) libertarians that support the opposite, at least as long as the situations that would lead one to choose to lose one's freedom come from ‘natural’ circumstances, and are not forced by somebody's intervention (understandably, since otherwise —e.g. if someone was threatening your life if you wouldn't give up your freedom— that would be coercion).

While of the two position is more favorable to freedom? For sure, they're both paradoxical.

Forced to be free

The counterweight to the previous discussion concerns the opposite situation: let as assume we are not free (be it because it's not true that everyone is born free, or because we exercised our freedom to lose our freedom, or because we were coerced into slavery); the question is: can we be forced to be free? (Or on the other side of the barricade: can be force others to be free?)

Let us assume an individual is not free. Let us assume they want to be. Can we help them, free them? Do we have to? (moral duty)

Let us assume instead that they do not want to be free. More, let us assume they want to not be (which isn't exactly the same thing ). Should we free them anyway? (here obviously the question is directly related to what one thinks about one's freedom to not be free).

Or let us assume that we have given ourselves the duty to free those that want to be free, but we do not know if this particular individual does or does not want to be free. Assume the only way to know if they want to be free or not is to free them. Should we?

Or suppose that the freedom of each of us (individually) depends inescapably on the fact that everybody else be free too. Should we free them regardless of their will, if not else to ensure that everybody else (that wants to be free) can be?

Or suppose that this individual doesn't even know they could be free, and therefore they didn't choose in either sense (i.e., in some sense for them not being free is the ‘natural’ condition). Is it morally acceptable or even our duty to show them this possibility?

(To the extreme: if nobody is free, and nobody has ever been, and we do not even know what would really happen if we all were, would the answer be different? But that's a different matter.)

Education to freedom

Closely related to the previous there's another matter we can't go without discussing when talking about freedom, a much more practical, yet no less paradoxical, matter: education to freedom. Can we educate people to be free?

It's interesting to remark that the answer for the opposite is obviously positive: there is a long, glorious, multimillenial tradition of indoctrination, brainwashing, orientation. And one could hardly say it hasn't had (almost) always success.

One could hardly say the same for freedom, and in this case the situation is even more delicate. Indeed, there's a purely ‘technical’ problem: can freedom be even taught in the first place?

But there's also an ethical question: is it morally acceptable (assuming it is even possible) to teach others to be free, or is even just going in that direction coercive? More, like in the case of ‘forcing’ people to be free, is it maybe a ‘moral duty‘ to teach others about freedom?

The problem of education is as important as it is overlooked. On the material possibility to ‘teach’ freedom, on the other hand, there's a lot be said, and the possible methods (and subjects!) deserve an in-depth discussion that falls outside the theme of this article.

It may seem easy to get rid of the matter altogether by maintaining the (debatable) assumption that we are born free, and that the habit to submission and coercion that seems dominant is the one that is ‘acquired’, and as such a truly ‘free’ system wouldn't need to ‘teach’ freedom in the first place. But such a dismissal doesn't take into account some important points.

The first one is, obviously, that precisely because in the context in which we live the dominant mindset seems to be the opposite, some form of ‘teaching’ of freedom (be it only just to ‘unlearn’ the habit to submission and coercion that we have allegedly been instilled since our early years) becomes necessary.

More, it's quite clear that any ‘lesson’ History can teach us is easily forgotten in a couple of generation: how, then, should be educate the new generation to avoid falling back to the system of submission and coercion which we're supposed to get rid of?

The biggest problem is that education is an instrument that can lead to diametrically opposite effects: it can be used to show, illustrate, open the mind, make free, but just as much it can be used to mold the minds into pre-established canons, plagiarize, restrict, close down. But this is a matter that concerns education as a whole, and not something specific to the education to freedom.

The roots of the paradox

Let's go back to, and conclude, the main topic. There is actually a single crucial point from which the whole matter of freedom as a paradox stems from, and that's the issue of keeping one's freedom.

A system based on coercion can easily preserve itself following its own rules. Its founding elements have an internal consistency that make it stable.

On the other hand, a system based on freedom as a fundamental principle cannot be but based on compromise, if not else because «one person's freedom ends where another's begins». Freedom, in itself, cannot thus be an absolute principle, as coercion can be (except, of course, in the trivial case of a single individual that never interacts with any other, not directly, nor indirectly).

The problem is obviously the unavoidable existence of conflictual situations that do not allow a pacific resolution, be it for the inflexibility of the individuals involved, be it for the uniqueness of the sought resource, or be it for any other reason. Even accepting as freely resolved any compromise that the involved individuals may reach3, there will be circumstances in which a compromise may not be reached —and in such a case, coercion of one of the party on the other will be unavoidable.

Therefore, as free as a system can be, it cannot avoid coercion, even if restricted to individual, particular cases: local coercions, so to say, rather than global or systemic. But as minimal as it may be, the most circumscribed of coercion ultimately means, in practice, a negation (even if local) to the freedom as absolute, inalienable principle.

Freedom as a founding principle therefore leads inevitable to an inconsistent, self-contradictory system. This is the root of the paradox of freedom. A fissure, as minuscule as it may be, that irrimediably undermines any discourse that could be born from freedom as an absolute principle.

In other words, any (non-trivial and not superficial) discussion on freedom ultimately coalesces on a deliberation about which compromises are acceptable to be as little non free as possible.

Any situation of conflict is fertile ground for doubts that have no answer that are not limiting to freedom.

Assume for example that there is an unresolvable conflict between two parties. Is a third party, independent from the two, free to intervene (without being asked), in favour of either of the original party? If yes, we're accepting prevarication, if not, we're denying the third party freedom of action in participating in the conflict.

There's also the matter of the relative weight of one's freedom versus those of the others. It's easy to say that all have the same weight: it's much harder to act as if they were, especially in the case of strong divergences, e.g. ideological: should somebody else's freedom be respected purely on ideological grounds, regardless of any other factors, or only if there is reciprocity in respecting one's freedom? Can we equally respect the freedom of somebody who does not believe in respecting freedom?

In the negative case, we get in the sticky situation of selective respect (what is the criterion to decide who's deserving of our respect, and who is not?), on the other side we're keeping the doors open to power moves that may direct society towards more coercive systems.

More in general, what prevents a system, that has freedom of its participants as a cornerstone, from degenerating towards a coercive system? How many, and which limitations can be posed to prevent it from happening?

Now much freedom is it right to lose to guarantee freedom?

  1. the matter is actually considerably more complex than this; there are several ways to present the concept of right, but in the ethical/philosophical sense and in the judicial sense, and not all of them directly or indirectly relate to freedom. But this is somewhat tangential to the whole point of this article, so this gross approximation will do in this place. ↩

  2. this is more usually expressed in terms of Negative and positive rights and similarly with positive versus Negative liberty. I'm not a big fan of the negative/positive choice of terms, preferring passive and active depending on the direct involvement of the subject. ↩

  3. a debatable point, except maybe for the cases where both individual have similar contractual power —so-called “euvoluntary” resolutions. ↩

Me ne vado/1: le tasse

Burioni su Twitter minaccia:

Perché, da residente nella fascia più alta dell’IRPEF, se mi aumentano di un centesimo le tasse monumentali che pago non evadendo nulla, smetto di lavorare e mi godo il tempo libero insieme al denaro già guadagnato. E come me tanti altri.

Non è una “minaccia” originale: esce fuori ogni volta che si parla di alzare le tasse (qui un'analisi del Guardian di un paio d'anni fa), ed è essenzialmente il tema di quella famosa rivolta di Atlante di Ayn Rand che tanto piace agli anarco-capitalisti.

Ma è una minaccia … stupida.

Per inciso, non è mio interesse qui difendere la proposta di innalzamento delle aliquote, o il suo opposto, o piú in generale discutere dell'opportunità o meno di alzare o abbassare le tasse per questa o quella fascia di reddito, o piú in generale di quale sia la migliore politica fiscale: è un tema dibattibile all'infinito, partendo da idee molto diverse di filosofia politica ed economica. Voglio invece semplicemente analizzare la sensatezza della minaccia di risposta del contribuente, da un punto di vista, se cosí possiamo dire, puramente economico.

La minaccia in questione prende due forme, ma rimane sostanzialmente la stessa: «se mi alzate le tasse, smetto di contribuire» (in maniera legale). Le due forme classiche che questa minaccia può prendere sono il trasloco («trasferisco la mia residenza in un luogo con un regime fiscale per me piú conveniente»), ovvero —nella “versione Burioni”— smettere di percepire l'introito che ha subito un incremento di tassazione.


Il problema del trasferimento —come osservato già anche nel succitato articolo del Guardian— è che trasferirsi costa, e costa tanto piú quanto piú è alto il tenore di vita di chi si trasferisce: Bill Gates vive in una magione la cui costruzione è costata piú di 50 milioni di dollari, il cui valore attuale si aggira sui 150 milioni di dollari, e su cui paga circa un milione di dollari di tasse l'anno, piú le spese di mantenimento.

Quanto costerebbe a Bill Gates trasferirsi per motivi fiscali? Supponendo che voglia ricreare un ambiente equivalente a quello in cui vive adesso, possiamo fare una stima a braccio basata sul costo della precedente, aumentato per l'inflazione (2.5% annuo per 20 anni), intorno al centinaio di milioni di dollari, e possiamo supporre che prima di 5 anni non sia pronta (anche se i proprietari potrebbero probabilmente cominciare a trasferirsi prima del completamento dei lavori, volendo).

(Ovviamente, Bill potrebbe decidere di rinunciare a quello stile, ed adeguarsi a vivere ad esempio un preesistente ambiente, tipo un qualunque castello in vendita a una manciata di milioni di euro, soffrendo principalmente intangibili costi psicoemotivi.)

In aggiunta al costo del trasloco in sé, Bill si troverebbe anche a dover continuare a pagare le tasse (ed almeno un minimo di manutenzione) per la sua residenza attuale; tali tasse sarebbero da pagare da non residente (non so come funzionino le cose a Medina, Washington ma sono sicuro che non sarebbero inferiori a quelle che paga attualmente), almeno finché ne rimanga in possesso. E qui sorge un interessante paradosso: chi si potrebbe permettere l'acquisto della tenuta di Bill Gates probabilmente non sarebbe interessato a comprarla —per le stesse ragioni fiscali per cui Bill si starebbe trasferendo— rendendo molto piú difficile sbarazzarsene.

In tutto questo, Bill Gates è certamente un caso abbastanza atipico: parliamo di qualcuno con un patrimonio che si aggira sui 100 miliardi di dollari e che cresce di 5–10 miliardi (netti!) l'anno: una variazione di 1% sul carico fiscale complessivo potrebbe essere sufficiente a giustificare un cambiamento di residenza, giacché già in un paio d'anni avrebbe ammortizzato il costo del trasloco con il risparmio sulle tasse1. Ma di quanti di quei (reali o fantomatici) milionari che dovrebbero fuggire in massa in caso di innalzamento della pressione fiscale possiamo dire lo stesso? O meglio: quanto dovrebbe essere tale incremento davvero per giustificare (anche solo economicamente) la loro fuga?

Con ciò, ovviamente, non mancano certo persone che scelgono la residenza anche —se non sopratuttto— sulla base del regime fiscale; famosamente è questo il caso di Gérard Depardieu, che dal 2012 preferisce il regime fiscale belga a quello francese, nonché di Sean Connery, la cui scelta di risiedere fuori dal Regno Unito mal si mischia con il suo supporto per il movimento indipendentista della sua nativa Scozia.

Smettere di lavorare

Molto piú difficile da comprendere, sempre da un punto di vista puramente economico, la minaccia in stile Burioni: «se mi alzate le tasse smetto di lavorare e passo il tempo a godermi i risparmi».

Perché una cosa del genere abbia senso, il soggetto in questione dovrebbe avere da parte risparmi sufficienti a mantenere il suo attuale stile di vita per il resto dei suoi giorni, o investimenti che garantiscano una rendita adeguata —quanto meno con una sicurezza confrontabile da quella offerta dalla solidità del suo attuale contratto di lavoro— o infine essere disposto ad adeguare (al ribasso!) il suo stile di vita per renderlo compatibile con la disponibilità economica conseguente l'abbandono del lavoro.

Senza queste premesse, infatti, lasciare il lavoro non è una minaccia credibile, poiché altrimenti il reddito netto (per quanto variato dalla tassazione) rimane una necessità.

Possiamo fare alcune osservazioni già a partire da questo.

Se il soggetto in questione vive al limite delle proprie possibilità (ovvero senza mettere da parte una quota ponderata del proprio reddito netto), allora un incremento della tassazione lo costringerebbe a ridurre in proporzione il proprio stile di vita —ma se non mette da parte nulla, rinunciare allo stipendio richiederebbe una riduzione ben piú drastica dello stile di vita. Quanto è credibile allora la minaccia?2

Se invece il soggetto in questione risparmia già una quota parte del proprio reddito netto, l'incremento della tassazione non andrebbe ad inficiare lo stile di vita corrente, perché potrebbe essere assorbita dalla quota dedicata al risparmio, ed avere quindi potenziali conseguenze sullo stile di vita futuro (ad esempio dopo il pensionamento). D'altra parte, anche qui si potrebbe fare un'osservazione non dissimile dalla precedente: quanto dovrebbe essere l'incremento della tassazione da giustificare un abbandono completo dell'introito lavorativo a favore di una dilapidazione corrente dei risparmi (e quindi conseguenze ancora piú gravi sullo stile di vita futuro), rispetto ad un ulteriore accumulo (se pure ridotto in proporzione all'incremento della tassazione)?

C'è ovviamente un fattore importante che manca in questi calcoli: il valore del tempo libero. Al di fuori del reddito, infatti, la principale differenza tra lavorare e non lavorare è la disponibilità di tempo da dedicare ai proprî interessi al di fuori dell'orario di lavoro: assumendo quindi che il soggetto abbia effettivamente da parte abbastanza da poter vivere di rendita, la scelta tra il continuare a lavorare (pur con la tassazione piú alta) o meno dipende sostanzialmente dal valore che si dà al tempo dedicato al proprio lavoro, e dalla propria percezione che il reddito netto che ne deriva sia a questo commensurato.

D'altronde, se il soggetto in questione è del parere che il reddito netto che deriva dal proprio lavoro sia appena sufficiente a coprire il tempo da lui dedicato allo stesso (talmente che, almeno in iperbole, anche un solo centesimo in piú di tasse lo dissuaderebbe dal continuare), viene davvero da chiedersi perché continuare a lavorare potendosi davvero permettere di non: vivrebbe sicuramente in una condizione molto meno stressante, perché per quanto possa essere gradito il lavoro, sempre di lavoro si tratta —con tutti gli oneri che ne conseguono.

Una provocazione

Peraltro, per essere una minaccia, l'atto dovrebbe essere un danno per la società, e viene da chiedersi se sarebbe davvero cosí: sono invece abbastanza sicuro che non manchino candidati che sarebbero ben contenti, anche con l'aumentato carico fiscale, di assumere il ruolo che il soggetto lascerebbe libero rimuovendosi dalla forza lavoro, e certamente l'economica trarrebbe beneficio dalla reimmissione in circolazione dei risarmi con cui il soggetto vivrebbe non percependo piú un reddito lavorativo.

(Ah, e in tutto questo ho intenzionalmente evitato di parlare di pensioni, perché quella è, parafrando dall'inglese, tutt'un'altra lattina di vermi.)

  1. Bill Gates in realtà è anche un caso abbastanza atipico perché rientra in quel gruppetto di miliardari che si esprimono a favore di un incremento di carico fiscale sui cosiddetti “super-ricchi”. ↩

  2. per inciso, con oltre 75K€ di RAL (ultimo scaglione IRPEF), ovvero oltre 40K€/anno netti, in una tale situazione sarebbero necessari piú di 1.6M€ di risparmi per mantenere lo stesso stile di vita per altri 40 anni. ↩

Il principio di Shirky applicato alla politica


Institutions will try to preserve the problem to which they are the solution
Le organizzazioni tendono a preservare i problemi per risolvere i quali sono stati creati
Clay Shirky, via Kevin Kelly

L'idea è semplice.

Supponiamo che un ente venga creato con lo scopo precipuo di combattere il traffico di droga in, verso e da una certa nazione. Supponiamo che chi lo dirige o ci lavori abbia un'idea geniale che possa risolvere definitivamente il problema del traffico di droga. Supponiamo anche che non vi siano ostacoli burocratici all'attuazione di questa soluzione.

Potrà mai questo ente agire per l'applicazione di questa soluzione? La risposta è no, perché una soluzione (definitiva) al problema comporterebbe la soppressione dell'ente atto a combattere il problema.

Sostanzialmente, per un ente istituito con lo specifico compito di risolvere un problema, raggiungere l'obiettivo significherebbe commettere —di fatto— un suicidio. Questo paradosso è la base del principio di Shirky.

È importante sottolineare, in piú, che —almeno fintanto che l'esistenza dell'ente è sottoposta a decisioni esterne— anche quando l'ente non abbia interesse a trovare una soluzione definitiva è comunque essenziale che mantenga almeno le parvenze della propria necessità, che conduca quindi azioni che almeno apparentemente siano mirate se non a risolvere definitivamente il problema, almeno a contrastarlo con una certa (almeno apparente) efficacia.

Al suo estremo, questo paradosso può persino trasformare una già fiacca quando non puramente fittizia lotta al problema in una sua diretta alimentazione; ad esempio, agenti antidroga che impersonano spacciatori, o una metodica opposizione alla legalizzazione di certe droghe.

Obiettivi politici

Supponiamo che un politico costruisca la propria campagna elettorale su un tema specifico, promettendo —una volta eletto— di risolvere uno specifico problema. Ci si può fidare del fatto che questo politico, una volta eletto in una posizione in cui potrebbe effettivamente risolvere efficacemente il problema, lo faccia?

Sarebbe facile rispondere con un cinico “no”, anche semplicemente basandosi su una diffusa opinione che i politici, per lo piú, mentano sulle promesse elettorali. In realtà, questo cinismo è molto meno diffuso di quanto si potrebbe pensare (nella mia esperienza: è piú diffuso a sinistra che a destra, ma non sono a conoscenza di statistiche che confermino questa mia aneddotica esperienza), e viene spesso “trascurato” quando viene toccato un tema che ci sta particolarmente a cuore, o quando una faccia nuova venga a proporsi come soluzione.

(Proprio la novità, il presentarsi come “anti-enstablishment”, è stata uno degli elementi determinanti per il successo iniziale di Berlusconi, cosí come in tempi piú recenti del Movimento 5 Stelle di Grillo & Casaleggio, nonché della rinnovata Lega Nord “italianista” ed “anti-europeista” —il tutto, ovviamente, senza trascurare la massiccia importanza degli strumenti di propaganda, la televisione vent'anni fa come Internet oggi.)

Il paradossale principio di Shirky ci dà un'interessante chiave “interpretativa” della potenziale onestà del politico, al di là di eventuali questioni di attuabilità; ci permette cioè di rispondere: ammesso e non concesso che l'obiettivo sia raggiungibile, il politico in questione mirerà davvero al suo raggiungimento?

E per trovare la risposta a questa domanda, la chiave in cui bisogna leggere la domanda è in realtà questa: una volta (ipoteticamente) raggiunto l'obiettivo, cosa rimarrebbe da fare, al politico in questione?

Una possibile risposta alla domanda sull'affidabilità del politico, nell'ottica del paradosso, è quindi la seguente: è piú credibile qualcuno sceso in politica solo per risolvere il problema, ma che potrebbe tornare a ritirarsi a vita privata raggiunto l'obiettivo (quindi dopo aver “suicidato” la propria piattaforma elettorale con il mantenimento della promessa), piuttosto che un politico di professione che non ha conosciuto altra fonte di reddito che la politica stessa: per quest'ultimo, infatti, il mantenimento è legato al proprio rimanere in politica, ed il mantenimento della promessa elettorale diventerebbe invece un argomento in meno per le elezioni successive: deleterio, soprattutto per coloro il cui corpo elettorale tende ad essere single-issue.


A volte ritornano

Ovviamente, non è detto che qualcuno con una vita privata soddisfacente, sceso in politica per risolvere uno specifico problema, non cambi idea, scoprendo ad esempio che nel ruolo di politico si ritrova ad avere piú fortuna (o ricchezza o prestigio o quello che sia) che nella sua vita privata: e questo non farebbe altro che farlo rientrare nella situazione del principio di Shirky.


È ugualmente vero che una volta eletto con certe promesse elettorali, un politico non può —in genere— ignorarle completamente: dovrà almeno fingere di perseguire l'obiettivo preposto, dimostrando un almeno apparente raggiungimento di risultati almeno parziali —senza però mai andare veramente a fondo nella questione, e se possibile cercando anzi di ostacolare chi provi a risolvere davvero il problema. Eventuali fallimenti potranno comunque essere scaricati su alleati inaffidabili, agenti esterni, agenti interni o qualunque altra forza presunta opposta alla risoluzione del problema —specchietti per le allodole che distraggano dal reale mancato intento del politico stesso.


Voglio inoltre sottolineare che il principio di Shirky si applica sempre e comunque: potrebbe sembrare particolarmente rilevante nel caso di un politico che scommetta la propria carriera su una particolare vittoria politica, ma in realtà una tale scommessa è assolutamente irrilevante, ed il principio di Shirky è anzi il suo opposto: la scommessa (comunque facilmente non mantenuta) è in genere del tipo «se non riesco a far passare questa legge, mi ritiro dalla politica»; il principio di Shirky, se fosse esplicitato, sarebbe formulato piuttosto con un «se riesco a far passare questa legge, mi ritiro dalla politica, quindi non proverò veramente a far passare questa legge». Su questo spenderò qualche altra parola piú avanti.


(Non è invece legata al principio di Shirky l'ipocrisia di quelli che fanno campagne contro X (droga, pedofilia, omosessualità, etc) salvo poi essere colti con le dita nella marmellata, colpevoli proprio di ciò contro cui facevano campagna.)

Per esempio

Un esempio paradossale

Se il programma elettorale di Silvio Berlusconi fosse stato incentrato esplicitamente sulla difesa dei suoi problemi giudiziari, e possibilmente dei suoi interessi commerciali, sarebbe stato ben piú credibile della sua propaganda “anticomunista” e “liberale”, non tanto (o non solo) perché avrebbe reso espliciti i suoi veri intenti, ma anche, e soprattutto, perché avrebbe potuto dimostrare la non applicabilità del problema di Shirky: cancellati i proprî reati e riassettate le proprie finanze, avrebbe potuto tornare a fare l'imprenditore senza doversi piú occupare di politica personalmente (assumendo ovviamente in tutto questo che la sua discesa in politica non avesse ulteriori secondi, legati ad esempio ad interessi mafiosi).

Un esempio senza sbocco

Come osservato, il principio di Shirky ha un suo complementare nelle “scommesse elettorali”: un recente esempio lampante in questo senso è stato Matteo Renzi, con la sua scelta di (fingere di) giocarsi la carriera politica sulla riforma costituzionale Renzi-Boschi, minacciando (o promettendo?) di non farsi piú vedere in caso di fallimento del referendum.

Possiamo constatare che nella realtà dei fatti, fallito il referendum, la sparizione di Renzi si sia limitata ad un passo indietro dal ruolo ricoperto ad allora (presidenza del Consiglio dei Ministri), ma al di là dell'ipocrisia del caso specifico quello che a noi interessa è l'analisi del paradosso in cui si andrebbe a cacciare un politico “onesto” (ovvero convintamente intenzionato a mantenere le promesse) nel fare una scommessa del genere, su una legge o riforma che sia anche il suo cavallo di battaglia elettorale (come peraltro era il caso per Renzi).

Per non cedere al principio di Shirky, il politico dovrebbe infatti sostanzialmente promettere (e mantenere!) di ritirarsi dalla politica dopo aver raggiunto l'obiettivo; con la scommessa promette (e dovrebbe mantenere!) invece di ritirarsi dalla politica se non raggiunge l'obiettivo: in fin dei conti, con una scommessa del genere un politico onesto dice semplicemente «comunque vada, mi ritiro dalla politica». Almeno in assenza di scappatoie.

Un esempio concreto

Un pilastro della campagna elettorale di Matteo Salvini prima e dopo le Elezioni politiche italiane del 2018 è stato il contrasto all'immigrazione. Vi sono varî motivi per dubitare dell'onestà della promessa di Salvini1, ma il primo di tutti è proprio il principio di Shirky.

Salvini ha come principale fonte di reddito2 la propria attività politica. In quanto tale, non può mirare davvero al raggiungimento degli obiettivi che si pone —qualunque essi siano, ed indipendentemente dalla loro effettiva realizzabilità— semplicemente perché questo comporterebbe la fine della sua carriera politica —salvo notevoli trasformismi (a cui, c'è da riconoscere, non è certo estraneo3).

È indubbiamente vero che Salvini è tutt'altro che l'unico ad essere in questa situazione (anzi, si potrebbe anche arrivare a dire che sono ben pochi —se ve ne sono affatto— i politici italiani che non condividano questa condizione con lui), ma il suo caso è particolarmente interessante non solo perché l'obiettivo sul controllo dell'immigrazione sarebbe quanto meno approcciabile, se non addirittura raggiungibile, ma anche e soprattutto perché il suo operato da Ministro degli Interni del Governo Conte è ricco di elementi caratteristici del principio di Shirky in azione. Qualche esempio:

  • prendersi meriti legati alle azioni del governo precedente;
  • l'ossessione contro le ONG “taxi del mare”, nonostante oltre il 90% degli sbarchi sia “fantasma”, o con salvataggi della Guardia Costiera italiana (specchietto per le allodole);
  • il siluramento del GICIC, Gruppo Interforze di Contrasto all'Immigrazione Clandestina (ostacolo a chi agisce per risolvere il problema);
  • l'emanazione di due decreti (Decreto Sicurezza e Decreto Sicurezza Bis) di alto impatto propagandistico e scarso o nullo impatto effettivo, quando non addirittura controproducenti (propaganda e falsa realizzazione, con amplificazione dei problemi);
  • accuse al potere giudiziario che vanifica il suo (illegale) operato (scaricabarile delle responsabilità su presunti nemici interni);
  • la reiterata mancata partecipazione agli incontri EU sulla gestione dei flussi migratori, salvo poi assegnare all'EU presunte intenzioni negative al contrasto di detti flussi (ostacolo al raggiungimento dell'obiettivo e scaricabarile delle responsabilità su presunti nemici esterni).

Sia ben chiaro che con questi esempi non è mio interesse ridurre l'operato di Salvini all'applicazione del principio di Shirky, bensí solo mostrare come già solo a questo livello si possa manifestare la sua malafede.


Per concludere il discorso, possiamo vedere cosa giace oltre il principio di Shirky nella politica, ovvero quali vie d'uscita si propongano ad un politico che fosse onesto (ovvero intenzionato a mantenere le proprie promesse elettorali), ma anche cosciente della propria capacità politica, e quindi interessato a mantenere il proprio ruolo (di politico di professione).

La piú semplice delle scappatoie è quella di porsi obiettivi chiaramente irraggiungibili, ma asintoticamente approcciabili: sarebbe in tal caso possibile “vincere” ad ogni elezione avvicinandosi all'obiettivo senza fingere di star provando a raggiungerlo.

Un'idea piú sofisticata potrebbe essere quella di non manifestare subito l'intero programma elettorale, ma attuare una rivelazione progressiva: ad esempio, si potrebbe cominciare con una piattaforma elettorale costruita su una particolare riforma, e solo una volta attuata questa riforma spostare la propria piattaforma elettorale sul passo successivo.

Per mantenersi nell'ambito dell'“onesta” è ovviamente necessario che il programma elettorale, anche nella parte non manifesta, abbia una sua coerenza ideologica (e non affidare quindi il proprio “rinnovamento” elettorale al piú becero ed incoerente dei trasformismi, seguendo la “pancia” del popolo con logiche puramente numeriche). In tal caso, a parte le accuse di dissimulazione, vi sarebbe anche la possibilità di un crescere del consenso basato proprio sul raggiungimento degli obiettivi («oh, finalmente un politico che fa davvero quello che dice»).

La migliore delle soluzioni sarebbe ovviamente un approccio combinato, con un obiettivo ultimo manifesto ed utopico, e programmi elettorali realizzabili per gli infiniti passi intermedi (per questa legislatura ci concentreremo sull'aspetto X; una volta raggiunto questo obiettivo intermedio ci occuperemo dell'aspetto Y; etc).

Ma forse è chiedere troppo.

Una nota finale

L'intera esposizione è costruita sull'applicazione del principio di Shirky al singolo esponente, ma il principio è ugualmente applicabile anche al gruppo, al movimento: un partito fondato sul raggiungimento di uno specifico obiettivo tenderà a non provare davvero a raggiungerlo, poiché questo poterebbe al suo scioglimento. Direi anzi che tale tendenza diventerà tanto maggiore quanto piú tempo sarà trascorso dalla fondazione del partito; possiamo quindi prevedere tre possibili termini per un partito: il rapido raggiungimento del proprio obiettivo (e la conseguente dissoluzione del partito), l'esaurimento della spinta propulsiva verso il raggiungimento dell'obiettivo (e la conseguente dissoluzione del partito), l'innesco di meccanismi legati al principio di Shirky, ed il conseguente perdurare del partito contro i proprî interessi dichiarati.

O per dirla con le parole di Harvey Dent:

You either die a hero, or you live long enough to see yourself become the villain.

O muori da eroe, o vivi tanto a lungo da diventare il cattivo

Harvey Dent in The Dark Knight

  1. a partire dalla generale inaffidabilità del soggetto, protagonista dell'apparente trasformazione della Lega Nord da partito secessionista con nemico principale l'Italia intera ed in particolare il meridione a partito nazionalista con a cuore l'interesse di tutti gli italiani contro i forestieri —del nord (EU) e del sud (Africa) ↩

  2. almeno formalmente; stiamo quindi escludendo altri aspetti quali i famosi 49 milioni di euro spariti dalle casse della Lega, o i presunti 65 milioni di euro di intrallazzi illeciti con la Russia. ↩

  3. ovviamente, si potrebbe osservare che il trasformismo di Salvini costruisce comunque sullo stesso modus elettorandi: una propaganda basata in maniera molto elementare sull'odio o sul disprezzo dell'inferiore, cambiando il presunto nemico, ma non certo la retorica. ↩

La libertà come paradosso

Ho già parlato in altre occasioni della libertà, riflettendo vuoi sull'uso ed abuso del concetto, vuoi sulla sua possibilità ontologica. Quello su cui vorrei soffermarmi stavolta è invece la natura paradossale, quando non addirittura contraddittoria, del concetto stesso di libertà e della sua applicazione nel mondo reale.

Ho già discusso nel primo dei succitati articoli alcune necessarie premesse perché di libertà si possa parlare; possiamo quindi dare per assunto in quanto segue che gli esseri umani1 siano dotati di un quid che chiameremo libero arbitrio e che dà loro la possibilità di scegliere come agire, nei limiti delle leggi (che possiamo assumere peraltro deterministiche) della natura.

Possiamo anche dare per assodato che un essere umano, finché non si trovi ad interagire con un altro essere umano (o altro ente dotato di libero arbitrio), sia libero (di agire come più ritiene opportuno), ma è altresí vero che in tale contesto il concetto di libertà non sia particolarmente significativo.

Invero, e qui si può vedere già il primo paradosso, è più significativo definire la libertà in termini negativi piuttosto che positivi: parlare di libertà ha valore soprattutto se si intende come libertà il non esssere limitati da altri. Da qui il famoso adagio secondo cui «la propria libertà finisce dove comincia quella degli altri», che parafrasando Gaber noteremo essere un'“espressione romantica e suggestiva”, ma che nulla ci dice sul come (o dove) il ‘confine’ tra le libertà propria e degli altri sia da tracciare.

Piuttosto che approfondire questa ricca tematica, al momento mi interessa piuttosto evidenziare che si potrebbe a questo punto chiudere il discorso con una semplice considerazione: un individuo o è libero (se non interagisce, direttamente e indirettamente, con nessun altro), oppure non lo è (in quanto, interagendo con altri, si trova di necessità condizionato o limitato nelle scelte).

Ma ovviamente così non abbiamo detto nulla di interessante. Il vero nocciolo, quando si parla di libertà, è proprio determinare il confine che limita la libertà di ciascuno in rapporto a quella degli altri (di ciascuno degli altri, e degli altri come collettività), o quanto meno determinare dei criteri con cui determinare tale confine. È su questo, dopo tutto, che ci si accapiglia quando si dibatte di filosofia politica, etica, morale: se si possano tracciare limiti diversi da quelli ‘naturali’ dei rapporti di forza (opportunamente intesi), e quali, e come.

Anche per questo, alla fine, nella pratica, diventa più importante parlare di libertà al plurale, come collezione di singole libertà (essere —o meno— liberi di …) piuttosto che di Libertà come concetto astratto. Sono queste libertà che, generalmente, nelle formalizzazioni dei codices della società, vengono dette diritti e che, in quanto tali, dovrebbero (in teoria) essere garantite dalla società stessa (il ‘come’ ciò dovrebbe avvenire, ed il ‘se’ ciò poi avvenga veramente, ovviamente, sono tutto un altro discorso).

Ma la riduzione della Libertà come astratta assenza di coercizioni o prevaricazioni a molteplici singole libertà non è una cosa che riguarda solo le società formalmente organizzate: anche il più sfegatato sostenitore dell'anarchia finisce con il parlare, in concreto, di libertà da (le tasse, il governo, lo Stato, la religione, …), piuttosto che dell'astratta Libertà, perché in fin dei conti, nel concreto, sono quelle che contano.

Eppure è qui che entrano in gioco i due forse più importanti aspetti della libertà, due paradossi simmetrici a cavallo della transizione tra l'essere liberi e il non esserlo.

Liberi di essere liberi

Come premessa alla presentazione dei due fondamentali paradossi della libertà, porrei però una domanda: vi sono libertà più importanti di altre libertà? È possibile stilare una sorta di graduatoria, anche parziale, delle libertà?

Darei a queste domande risposta affermativa: dopo tutto, è proprio a partire da questo che si può partire nel definire i limiti delle libertà individuali in conflitto l'una con l'altra. Ad esempio, il diritto alla libera circolazione (libertà di andare indisturbati dove si vuole) è in conflitto con il diritto ad un angolino dove stare per conto proprio senza nessuno che ti venga a disturbare. La libertà di un gruppo di persone di organizzare una manifestazione confligge con la libertà di altre persone di attraversare le stesse strade. Quale delle due libertà prevale?

Meno superficialmente, è evidente che ci sono alcune libertà che sono fondamentali, nel senso che senza di esse non sarebbe nemmeno possibile esercitare le altre. Ovviamente, tali libertà fondamentali sono più generali, più astratte.

Parliamo, ad esempio, del diritto alla vita: io sono libero di vivere, e quindi gli altri non sono liberi di uccidermi. È evidente che se non sono vivo, non posso esercitare il mio essere libero. (Sorvoliamo sulla questione metafisica e trascendente della libertà dello spirito dopo la morte.)

Parliamo anche del diritto ad essere liberi: la ‘libertà di essere liberi’: sono libero di essere libero, e quindi gli altri non sono liberi di costringermi o prevaricarmi.

È importante notare che entrambe queste libertà fondamentali, non a caso espresse in forma di diritti, sono in un certo senso passive, legate più strettamente ad una ‘mancanza di libertà’ degli altri che ad una attiva scelta dell'individuo: dove però l'individuo può agire è nella difesa di quelle libertà; eppure, in qualche modo, la stessa necessità di difendere le proprie libertà fondamentali è una perdita di libertà. E già questo è un piccolo paradosso in sé, che probabilmente meriterebbe di essere approfondito.

Liberi di perdere la libertà

Se la libertà di essere liberi può sembrare un simpatico gioco di parole, è nell'andare oltre, nel guardare alla perdita della libertà, che il discorso si fa più serio, più interessante.

Non si parla qui ovviamente di una perdita della libertà frutto di coercizione o prevaricazione: un tale evento è smaccatamente null'altro che una violazione della libertà dell'individuo. Cosa possiamo dire invece nel caso di una permanente, volontaria rinuncia alla propria libertà?

Supponiamo che sia realistico quanto sostiene la Dichiarazione universale dei diritti dell'uomo (DUDU), ovvero che ciascuno nasce libero (Art. 1) e che abbia diritto alla vita e alla libertà (Art. 3). Finché si parla di diritto, si sta semplicemente implicando che altri non possano privarci della nostra vita, della nostra libertà. Questo non dice nulla sulla possibilità che ciascuno di noi possa scegliere di privarsi della propria vita —o della propria libertà.

Siamo liberi di diventare schiavi? È importante notare che la scelta non è volontariamente reversibile: dalla schiavitù si esce solo per un atto altrui. In questa sua irreversibilità, una perdita volontaria della libertà non è troppo dissimile da una perdita volontaria della vita (anche se la seconda è, per ovvie ragioni, ‘più’ irreversibile, a meno che non si creda nella reincarnazione o che la medicina non ci offra, in un futuro, la possibilità di tornare in vita dopo la morte).

La domanda è quindi: si è più liberi se si è liberi di non esserlo, o se la propria libertà è irrinunciabile?

La risposta non è banale: da un lato, se sono libero di rinunciare alla mia libertà, e finché non esercito tale opzione, sono ‘più libero’ di quanto lo sarei se non fossi libero di rinunciarvi; d'altra parte, nel momento in cui dovessi esercitare tale libertà rinunciando alla mia libertà sarei (da allora) meno libero che se non avessi avuto tale possibilità.

La domanda, peraltro, non è oziosa, anche se in questa sede mi preme solo sottolinearne la natura paradossale. Si potrebbe dire: chi mai rinuncerebbe volontariamente e permanentemente alla propria libertà? In realtà, vi sono infinite circostanze in cui una cosa del genere può avvenire, soprattutto quando ci si trovi davanti a scelte, ad esempio, tra la propria vita e la propria libertà.

Non a caso la suddetta Dichiarazione sostiene (Art. 4) che nessun individuo potrà essere tenuto in stato di schiavitù o di servitù: in altre parole, secondo la DUDU, non siamo liberi di perdere la nostra libertà.

D'altra parte, vi sono (sedicenti) libertari che sostengono il contrario, per lo meno se le situazioni che possono portare allo scegliere di perdere la propria libertà sono frutto di circostanze ‘naturali’ e non forzate dall'intervento di qualcuno (comprensibilmente, poiché in tal caso —ad esempio qualcuno che ti minacci di morte se non rinunci alla tua libertà— si tratterebbe di coercizione o prevaricazione).

Quale delle due posizioni è più a favore della libertà? Certamente sono entrambe paradossali.

Costretti ad essere liberi

La controparte della precedente discussione riguarda invece la situazione opposta: supponiamo di non essere liberi (vuoi perché non è vero che ciascun individuo è libero, vuoi perché abbiamo esercitato la nostra libertà a perdere la libertà, vuoi perché siamo stati costretti in schiavitù); la domanda è: possiamo essere costretti ad essere liberi? (O viceversa, possiamo costringere altri ad essere liberi?)

Supponiamo che un certo soggetto non sia libero. Supponiamo che costui voglia essere libero. Possiamo aiutarlo, liberarlo? Dobbiamo? (dovere morale)

Supponiamo invece che costui non voglia essere libero. Di più, supponiamo che voglia non esserlo (che non è esattamente la stessa cosa). Dovremmo liberarlo comunque? (Qui ovviamente la risposta è strettamente legata a cosa si pensa sulla libertà di non essere liberi.)

O supponiamo di esserci prefissi come compito di liberare coloro che vogliono essere liberi, ma di non sapere se questo soggetto voglia o non voglia essere libero. Supponiamo che l'unico modo per sapere se vuole o non vuole essere libero sia di liberarlo. Dovremmo?

O supponiamo che la libertà di ciascuno (individualmente) dipenda imprescindibilmente dal fatto che tutti siano liberi. Dovremmo liberarlo a prescindere dalla sua volontà, anche solo per assicurare che tutti gli altri (che vogliono essere liberi) lo siano?

O supponiamo che questo soggetto non abbia nemmeno idea del fatto che potrebbe essere libero, e che pertanto non abbia scelto né in un senso né nell'altro (diciamo che per lui l'essere non libero è una condizione ‘naturale’). È lecito, opportuno, raccomandabile o un dovere morale mostrargli questa possibilità?

(Portando la cosa all'estremo: se nessuno è libero, nessuno lo è mai stato, e non sappiamo nemmeno cosa succederebbe davvero se lo fossimo, cambierebbero le risposte? Ma questo è un'altra questione.)

Educazione alla libertà

Strettamente legata alla precedente, vi è infine un'altra questione da cui non si può prescindere nel parlare di libertà, una questione per molti versi ben più pratica, ma non per questo meno paradossale: l'educazione alla libertà. Si può educare ad essere liberi?

È interessante notare che la corrispondente domanda per la controparte ha risposta ovviamente positiva: vi è una onorata e gloriosa tradizione plurimillenaria all'indottrinamento, al lavaggio del cervello, all'inquadramento. E difficilmente si potrà dire che non abbia avuto (quasi) sempre un notevole successo.

Difficilmente si potrà dire lo stesso per la libertà, e la situazione in questo caso è ancora più delicata. Vi è infatti un problema ‘semplicemente’ tecnico, che volendo si può banalizzare nella domanda: si può insegnare ad essere liberi?

Ma vi è anche una questione etica: è lecito (ammesso che sia possibile) educare gli altri ad essere liberi, o già il fatto stesso di procedere in questa direzione è in qualche modo una coercizione? Di più, come nel caso della ‘costrizione’ ad essere liberi, è forse un ‘imperativo morale’ educare gli altri alla libertà?

Il problema dell'educazione è fondamentale quanto trascurato. Sulla possibilità materiale di ‘insegnare’ la libertà, d'altra parte, c'è moltissimo da dire, e possibili metodi (e contenuti!) meritano un'approfondita discussione che esula dal tema di queste riflessioni.

Può sembrare facile sbarazzarsi della questione sostenendo la (opinabile) tesi che si nasce liberi, e che l'abitudine alla sottomissione ed alla prevaricazione che sembra dominante è ‘appresa’, e che quindi in un sistema ‘libero’ non ci sarebbe bisogno di ‘insegnare’ la libertà. Ma una tale dismissione non considera alcuni aspetti importanti.

Il primo, ovviamente, è che proprio perché nel contesto in cui viviamo a sembrare dominante è la mentalità opposta, una forma di ‘insegnamento’ della libertà (foss'anche solo per ‘disimparare’ l'abitudine alla sottomissione ed alla coercizione che ci sarebbe stata inculcata fin dalla prima infanzia) diventa necessaria.

In più, è fin troppo evidente che qualunque ‘lezione’ la Storia possa insegnare è facilmente dimenticata nell'arco di un paio di generazioni: come allora educare le nuove generazioni a non ricadere nello stesso sistema di sottomissioni e coercizioni da cui ci dovremmo liberare?

Il vero problema è che l'educazione è uno strumento che può portare ad effetti diametralmente opposti: può essere usata per mostrare, indicare, allargare la mente, rendere liberi, ma ugualmente può essere usata per plasmare secondo canoni prestabiliti, plagiare, restringere, rinchiudere. Ma questo è un discorso che riguarda l'educazione in generale, e non specificamente l'educazione alla libertà.

Le radici del paradosso

Torniamo, per concludere, al tema principale. Vi è in realtà un singolo punto cruciale da cui sorge l'intera questione della libertà come paradosso, e tale punto è il problema del mantenimento della libertà.

Un sistema basato sulla coercizione, sulla costrizione, può facilmente mantenersi seguendo le proprie regole. I suoi elementi fondanti hanno una coerenza interna che lo rendono stabile.

Per contro, un sistema che avesse come principio fondante la libertà non potrebbe non essere fondato sul compromesso, in quanto appunto “la libertà di ciascuno finisce dove comincia quella degli altri”. La libertà, di per sé, non può quindi essere un principio assoluto, come invece può esserlo la coercizione (tranne ovviamente nel caso banale del singolo individuo che non interagisca mai con alcun altro individuo, né direttamente, né indirettamente).

Il problema, ovviamente, è l'innegabile esistenza di situazioni di contrasto per le quali non esiste soluzione pacifica, vuoi per l'irremovibilità degli individui coinvolti, vuoi per l'unicità della risorsa richiesta, o qualunque altro possa essere il motivo. Anche volendo giudicare pienamente libera una soluzione di compromesso a cui gli individui coinvolti giungano di comune accordo, infatti, rimane il caso in cui un accordo non venga raggiunto, giacché in tal caso la prevaricazione di uno dei partiti coinvolti è inevitabile.

Anche il sistema più libero non può quindi non ammettere la prevaricazione, anche quando circoscritta a singoli casi individuali: prevaricazioni locali, se vogliamo, invece che globali e/o sistematiche. Ma ammettere anche la minima, la più circoscritta delle prevaricazioni significa, di fatto, rinnegare (seppure localmente) la libertà come principio assoluto e imprescindibile.

La libertà come principio fondante porta quindi ad un sistema incoerente, auto-contraddittorio. Questa è la radice del paradosso della libertà. Una minuscola crepa che inficia irrimediabilmente qualunque discorso parta dalla libertà come principio assoluto. Ovvero, qualunque riflessione (non banale e non superficiale) sulla libertà diventa immancabilmente una riflessione su quali compromessi siano accettabili per essere non liberi il meno possibile.

Dalle situazioni di conflitto si dirama infatti una serie progressiva di dubbi, per i quali non esistono risposte che non siano limitative della libertà.

Supponiamo ad esempio che vi sia un conflitto irrisolvibile tra due parti. Un terzo attore indipendente è libero di intervenire (senza che il suo intervento sia richiesto) a favore dell'uno o dell'altro? Se sì, si ammette la prevaricazione dei due sull'uno, ma altrimenti si nega al terzo la libertà di partecipare nel conflitto.

Vi è poi la questione del peso relativo dato alle proprie libertà rispetto a quelle degli altri. È facile a parole sostenere che entrambe abbiano lo stesso peso; è molto più difficile agire in tal senso, soprattutto in caso di forti divergenze, ad esempio ideologiche: la libertà degli altri va rispettata semplicemente per una questione ideologica, a prescindere da qualunque altro fattore, o solo nel caso in cui vi sia una reciprocità di tale rispetto? Possiamo rispettare allo stesso modo la libertà di qualcuno che non crede nel rispetto della libertà?

Più in generale, che cosa impedisce ad un sistema che abbia come cardine la libertà dei suoi attori di degenerare verso un sistema coercitivo? Quali paletti è lecito mettere per evitare che ciò accada?

Quanta libertà è lecito perdere per poter garantire la libertà?

  1. quanto qui discusso, ovviamente, dipende sostanzialmente dall'essere dotati di libero arbitrio, e non tanto dall'essere umani; il discorso potrebbe quindi essere generalizzato per includere qualunque essere vivente (o altro ente) che si possa assumere dotato di libero arbitrio. ↩

L'importante è finire

Nel mio dialetto esiste un termine, scunchiurutu, che vale letteralmente inconcludente, o magari sconclusionato, e si usa ad indicare cose, atti o persone senza senso, inutili, talvolta anche non particolarmente capaci o non particolarmente brillanti. E giusto per mettere in chiaro che questo articolo è decisamente più personale di altre riflessioni, farò subito presente che l'argomento riguarda la non infrequente applicabilità di questo termine al sottoscritto.

Penso di aver sempre avuto non dico un'avversione, ma almeno una tendenza all'incompatibilità con la conclusione; caratteristica, questa mia, che si è manifestata nel corso degli anni in maniere talvolta antipodali.

Ricordo ad esempio che al liceo, nell'esercitarmi a fare le versioni di greco, smettevo spesso prima di aver tradotto l'ultima frase; dal punto di vista razionale e cosciente, l'atto dell'abbandono era accompagnato da un pensiero del tenore di “ok, sono arrivato fin qui, lo so fare, inutile finire”; ovviamente, è più facile che fosse una combinazione di pigrizia e stanchezza a farmi lasciar perdere.

Per contro, nella fruizione di opere (libri, film, serie televisive) molto coinvolgenti, giungere alla conclusione era sempre un grosso problema, poiché indicava la fine di un (più o meno) lungo percorso in compagnia dei personaggi e degli eventi dell'opera: la conclusione era quindi un momento di grande nostalgia.

(Anche per questo non ho mai volontariamente abbandonato un film o un libro, anche se mi è capitato di non portarne a conclusione qualcuno per una sorta di inerzia dopo interruzioni forzate; ad esempio, sono per questo da lungo tempo a metà della lettura de I fratelli Karamazov.)

Nonostante questa non troppo subconscia sensazione di cesura, abbandono al termine di un'opera, non ho mai visto di buon occhio le ‘serie infinite’, in cui una storia viene trascinata anno dopo anno cercando di cavalcarne l'onda del successo. Per questo ho sempre deciso di guardare serie televisive che fossero già concluse, e questo ho molto apprezzato tanto di Battlestar Galactica quanto di Babylon 5, nonché della serie animata The last airbender.

I problemi delle storie infinite sono molteplici, non ultimo l'inevitabile crisi di creatività che porta alla decadenza della qualità dell'opera: una frontiera che nello show business ha preso il nome di jumping the shark in memoria di quello che viene considerato il momento di crisi peggiore della famosa serie Happy Days.

Ma anche supponendo un'infinita riserva di creatività, vi sono altri limiti il cui superamento crea complicazioni nelle storie infinite: il numero di situazioni differenti in cui i personaggi possono trovarsi nell'arco della loro vita è limitato, se non altro dal fatto che limitata è la vita degli esseri umani: a meno di non seguire un personaggio fin dall'infanzia, difficilmente si potranno descrivere più di 60 anni di avventure; e 60 anni sono tanti: in un tale periodo si verificheranno cambiamenti epocali nella geopolitica del mondo in cui i personaggi si muovono, nelle correnti culturali dominanti, nella tecnica e tecnologia che li circonda. E quanti autori avranno la capacità di gestire un universo immaginario tanto complesso?

Creare e fruire

La necessità o l'opportunità di una conclusione hanno per autore e fruitore pesi e valenze diverse.

Per il fruitore, l'opera è come il famoso viaggio della metafora, in cui percorrere la strada è più importante del giungere a destinazione1: arrivare significa terminare il viaggio, è un “non esser più”, non godere più del paesaggio, della storia, della compagnia dei personaggi. Chi mai, godendo della lettura di un libro, vorrebbe che il libro finisse, quando già il sapere di essere alle ultime pagine altera la nostra esperienza dell'opera (al punto che { chi? dove? Eco in un diario minimo? } suggeriva un ‘doppio fondo’ di pagine dopo la fine del libro, per nasconderne la vera lunghezza al lettore)?

Per l'autore, sono altre le questioni che intervengono. Un'opera conclusa è immutabile, definitiva, ‘perfetta’. O tale almeno dovrebbe essere. Il compimento di un'opera è gratificante, dà soddisfazione, coronando lo sforzo creativo come il raggiungimento di una vetta corona la fatica dello scalatore. O così almeno dovrebbe essere. Se per il fruitore l'opera è un occasione di svago, intrattenimento, per l'autore è un lavoro, un impegno. E se il fruitore potrebbe gradire un'opera infinita di cui godere indefinitivamente, gli sforzi dell'autore saranno piuttosto mirate al suo perfezionamento.

Tuttavia, non per questo giungere ad una conclusione è facile per un autore. Se avere la conclusione in mente è essenziale per evitare che l'opera si gonfi di inutile nulla, non per questo è sufficiente anche solo arrivarvi per dire “ecco, l'opera è finita”.

Anche quando l'intero progetto è ben chiaro e definito nella mente dell'autore, infatti, non sempre la sua realizzazione potrà dallo stesso essere vista come definitiva. Perfezionismo, insoddisfazione, la ricerca di una realizzazione ancora più vicina all'opera ideale che l'autore ha in mente, sono stati grandi nemici di opere immense (come l'Horcynus Orca di D'Arrigo), ma anche la causa di molteplici creazioni che si rispecchiano l'un l'altra, mentre l'autore cerca di creare la sua opera definitiva.

La scrittura ed io

Personalmente, ho sempre avuto un grande gusto nella creazione di storie. Ricordo che fin dai tempi delle medie, per lo meno, mi raccontavo spesso delle storie andando a scuola, o tornando a casa: un'abitudine che è perdurata negli anni del liceo, e poi ancora all'università, ed anche dopo, se pure dopo aver perso l'abitudine dei primi tempi di gesticolare come un pazzo per strada seguendo il mio racconto2.

Non ricordo bene quando ho cominciato a scrivere, mettendo finalmente ‘nero su bianco’ (anzi verde su nero, giacché scrivevo su un vecchio M24 con monitor a fosfori verdi) le mie idee, anche se ricordo bene di aver esaurito la pazienza della mia sorella maggiore, tenuta sveglia dal ticchettare dei tasti, nonché di aver avuto nella mia seconda sorella un'appassionata lettrice.

Ho preso nel tempo un grande gusto per la scrittura, ed ho sempre scritto con passione, sperimentando, rileggendomi, criticandomi stili e contenuti, apprezzandomi idee ed accorgimenti. Non so nemmeno se ho più tutto ciò su cui ho lavorato finora, e di alcune cose mi dispiace davvero, perché le ricordo con gran soddisfazione.

E c'è una cosa che posso dire con certezza di quasi tutto quello che ho creato e scritto, qualcosa che ho imparato su me e le mie creazioni, e riguarda proprio il problema della conclusione.

La maggior parte delle mie idee sono solo frammenti. Sono scene singole, senza una vera, completa storia di contorno. Sono momenti, spesso monchi di un prima, di un dopo. Eppure spesso sono scene, momenti, che riguardano gli stessi personaggi, e potrebbero —dovrebbero— essere parte di storie che spesso mi piacerebbe raccontare per intero. Ma quante cose mai ho davvero finito?

Ho concepito e lavorato a lungo ad almeno tre grandi storie: la prima, abbandonata da tempo, era quella della quale la mia seconda sorella consumava con gusto le prove, ed è ormai abbandonata da tempo, incompleta; la seconda è persa in chissà quale vecchio disco fisso, in attesa che la recuperi, e che provi almeno a finirne una bozza completa; la terza è il Gan'ka, attivamente in fieri.

Ad altre potenziali grandi opere, come Postapocalittica ed i precedenti Sopravvissuti (anche questi da recuperare) non ho invece ancora dedicato la stessa quantità di tempo.

Ho concepito e lavorato saltuariamente ad una quantità esorbitante di racconti tutti sullo stesso tema, Incontri. Non uno finito, se ricordo bene. Da almeno uno di questi ho anche tratto spunto per un'altra grande storia. Incompleta.

Sembra essere così per tutto. Vogliamo parlare de La Strega? O della Gita scolastica? E non va meglio nemmeno in altre lingue.

Eppure, qualcosa l'ho finita. Il primo racconto che ho finito, ricordo, nasce da una storia sviluppata insieme alla mia sorella maggiore, e poi messa per iscritto dal sottoscritto. Sono anche riuscito a finire altri brevi racconti, molto incisivi, in cui la singola scena era autosufficiente. Quattro di questi (Non ciò che ero, Momento sbagliato, Georg e il divertissement La stufa) sono anche presenti qui.

Ma un racconto finito non è necessariamente perfetto.


L'esempio perfetto a questo proposito è proprio il già citato Georg. Concludere Georg è stato per me tutt'altro che semplice, e il lettore curioso potrà notare l'invisibile nota che segue la conclusione, e che esprime proprio la mia insoddisfazione, pur in mancanza di alternative migliori.

E finché Georg fosse rimasto un semplice contributo al Wok, sarebbe andato bene così. Ma dietro suggerimento della moglie (senza dimenticare quello strisciante desiderio esibizionista che non manca a chi si pubblica in rete), ho anche deciso di proporlo per l'inclusione de L'ennesimo libro della fantascienza, raggiungendo improvvisamente una quantità di pubblico di parecchi ordini di grandezza più numeroso di quello del Wok.

Ed è così che finalmente ho potuto leggere, curioso, giudizi di gente totalmente estranea alla mia cerchia usuale. Giudizi che hanno puntualmente e spietatamente evidenziato la caratteristica mancanza del racconto.

Scrive il Sig. N:

"Georg": premessa interessante e costruzione scorrevole (non facile con un tema astratto), ma manca di una conclusione che richiuda la narrazione. 4/10

Sulla stessa linea .mau, che dedica a Georg il premio alla Migliore Idea Sprecata. Se non altro, nei commenti a quella premiazione ci si può anche divertire a leggere le interpretazioni che alcuni lettori hanno dato di Georg (qui una piccola esegesi fatta dal sottoscritto, per quanto abbia senso una cosa del genere).

L'importante è finire?

Se avessi voluto imparare qualcosa dall'esperienza di Georg, avrei imparato probabilmente questa semplice realtà: che l'importante non è finire, ma finire bene; finire tanto per finire non è, per l'opera, meno dannoso che gonfiarla di nulla, allungarne il brodo per non finirla.

E come già accennato, il problema non è che finire ‘bene’ è difficile ‘in sé’: se è vero che ci sono casi in cui l'insoddisfazione dell'autore per il finale raggiunto può essere ben motivato, è anche vero che un autore può trovarsi a non essere mai soddisfatto dai proprî finali, o di qualche parte di un'opera altrimenti conclusa, anche quando chiunque altro li accetterebbe, magari con entusiasmo, perché l'autore ‘vede’ qualcosa che i fruitori non vedono, e ‘sa’ quanto l'opera creata differisce da quella ideale.

No, l'importante non è finire, ma capire cosa questo significhi, esattamente. Anche senza arrivare al problema della terminazione umoristicamente citato da uno dei lettori di Georg nei commenti al .mau., è evidente che il ‘modo giusto’ di finire dipende molto dall'opera che si sta creando.

Se per un testo scientifico o filosofico la ‘giusta’ terminazione ha un'unica modalità (trarre le fila del discorso fatto, giungere ad una Hegeliana sintesi), per le opere di fantasia le possibilità sono molteplici.

Il metodo classico: la crisi è risolta, l'eroe giunge al termine del proprio compito, torna a casa o muore in un estremo sacrificio. A tesi esplicita (che io odio): come prima, ma si aggiungono pagine, inessenziali alla narrazione, in cui si ‘spiega’ quale fosse il punto dell'avventura. Shakespeariano: muoiono tutti, e non c'è più nulla da dire. Circolare: l'inizio è la fine è l'inizio. Aperto: se vende abbastanza ci faccio un seguito per vendere ancora.

Ed infine, ovviamente, il mio: mi viene un'altra idea su cui lavorare, mi ci butto fino a dimenticare come andava la storia dall'altra parte, e finisco con il non finire quello che comincio.

Ma è questa la chiave per finire bene? Tempo, immersione totale? Benché sia innegabile che i più grandi progressi nell'evoluzione delle mie storie li abbia avuti in queste circostanze, posso dire che se potessi dedicare alla scrittura la mia vita per intero riuscirei a terminare anche solo una delle mie idee ‘maggiori’? O saper finire è proprio quel quid individuale, naturale, che non si può imparare, che distingue il ‘vero autore’ dall'anche capace3 hobbista?

  1. fanno eccezione alcune classi di opere, come i classici ‘gialli’ alla whodunnit, in cui alla fine capire chi è l'assassino è più importante di ciò che porta alla sua scoperta —con il risultato che questi gialli sono spesso producibili in serie, con scarsa qualità letteraria. ↩

  2. Sono sicuro che si possono trovare ragioni fisiologiche a spiegare l'impulso creativo che accompagna le mie camminate, con una migliore circolazione del sangue, o chissà che (dopo tutto, mi metto a camminare per i corridoi quando devo scrivere qualcosa e sono a casa, o al lavoro). ↩

  3. ed ovviamente qui mi riferisco al sottoscritto: senza false modestie, e con una forse eccessiva coscienza di me, mi ritengo personalmente piuttosto bravino nello scrivere, e con delle ottime idee; e sì, nei momenti migliori penso davvero che se solo sapessi finire potrei anche diventare uno scrittore di un certo successo. ↩

Tertium (non) datur: scegiere, non scegliere, costruire le alternative

We got warehouses of butter, we got oceans of wine
We got famine when we need it, we got designer crime
We got Mercedes, we got Porsche, Ferrari and Rolls Royce
Yeah, we got choice

Abbiamo magazzini di burro, abbiamo oceani di vino
Abbiamo carestie quando ci serve, abbiamo crimini ad arte
Abbiamo Mercedes, abbiamo Porsche, Ferrari e Rolls Royce
Sì, abbiamo scelta


La possibilità di scegliere è spesso considerata una delle prerogative delle moderne società, culture ed economie occidentali. E non è difficile comprendere perché la possibilità di scegliere venga vista come una conquista: l'alternativa alla possibilità di scelta è la costrizione, l'obbligo, l'imposizione.

La possibilità di scegliere è quindi (percepita come) un elemento essenziale della libertà; non a caso il libero mercato (o presunto tale) del mondo occidentale è stato per decenni propagandisticamente contrapposto alla monotona ‘beneficenza statale’ dell'assistenzialismo del blocco sovietico.

E per quel sottile gioco psicologico per cui se qualcosa è bene, allora di più è meglio, tanto più vasta è la gamma delle alternative tanto più ne guadagna chi ha libertà di scelta (il consumatore); o qualcosa del genere. Ma non solo, come illustra un simpatico aneddoto che riguarda la linea Mulino Bianco della Barilla.

Al giorno d'oggi, la gamma di biscotti venduti dalla Mulino Bianco è talmente ampia che è possibile andare al supermercato e ‘graffittare’ gli scaffali cambiando l'ordine dei biscotti in modo da formare parole e frasi di senso compiuto sfruttando le dimensioni notevolmente maggiori delle iniziali dei nomi su ciascuna confezione. Ma se i biscotti di oggi differiscono non solo per nome, ma anche per tipologia (frollini, secchi, al cacao, eccetera), lo stesso non può dirsi di quelli con cui la linea entrò nel mercato: benché vi fossero tre o quattro confezioni diverse, infatti, i primi biscotti della Mulino Bianco erano sostanzialmente uguali (come ricetta e come sapore), differendo più per forma e disegno che per altro.

Il motivo di questa varietà si ritrova in indagini di mercato che avevano rivelato un aspetto molto importante nella psicologia del consumatore: la noia. Anche quando un prodotto aveva un grande successo e piaceva, il suo consumo prolungato induceva noia, per cui il consumatore si trovava portato a sperimentare altri prodotti per variare: avere più prodotti, anche simili, della stessa marca permetteva quindi di mantenere il consumatore ‘fedele’ pur lasciandogli varietà e libertà di scelta.

Ma davvero più scelta è meglio, o c'è un limite oltre il quale la scelta diventa semplicemente troppa? I più forniti supermercati italiani impallidiscono di fronte ai tipici supermercati statunitensi: non solo lo stesso prodotto esiste in decine quando non centinaia di marche diverse, ma ciascuna marca ne offre quantità spaventose di varianti. Crema di nocciole con nocciole, senza nocciole, con frammenti di nocciola, più densa, meno densa, extra densa, più crunchy, meno crunchy, più chunky, meno chunky, e così via all'infinito, con ogni possibile combinazione di opzioni.

Chi ha avuto a che fare con ferramenta, sa bene quanto può essere difficile trovare il pezzo giusto, considerando quante varietà esistono di chiodi, viti, bulloni, diverse per lunghezza, spessore, dimensione della testa, filettatura, materiale, tipo di punta, tipo di testa e via dicendo.

E se queste infinite possibilità di scelta sono una manna per chi ha bisogno di qualcosa di molto specifico, è altrettanto vero che esse sono una piaga per qualcuno a cui basta qualcosa di ‘generico’, per il quale il tempo speso a studiare le possibili scelte è solo perso, per il quale la vastità della gamma è solo scoraggiante, persino angosciante (e così si finisce con lo scegliere la prima cosa che capita, o il pezzo più economico, o addirittura scappare via per evitare di dover scegliere).

È quindi difficile trovare il ‘giusto’ equilibrio tra la varietà dell'offerta ed il costo (non solo temporale) della selezione. E se quindi è vero che ridurre il numero di opzioni viene talvolta incontro a chi dovrebbe esercitare la scelta, è però anche più spesso vero che quando una tale riduzione viene attuata, questo è più per ragioni di controllo da parte di chi la scelta la propone o la gestisce (i produttori).

Quanta scelta?

Scelta, sì, ma quanta di questa scelta è reale? Se, soprattutto in mercati del futile, la gamma delle possibili scelte raggiunge a volte le dimensioni spaventosamente spropositate della “troppa scelta”, nelle questioni che più direttamente e profondamente influiscono sulla nostra vita le scelte sono spesso molto più limitate: anche quando non strettamente binarie o duali, infatti, vi sono molti casi importanti in cui il talvolta vasto campo delle scelte possibili è dominato da una, due opzioni maggioritarie, pur in presenza di altre scelte con adesioni molto più limitate.

La cosa non è necessariamente legata a manicheismi del tipo “scegliere tra il Bene e il Male”, ma spesso piuttosto a meccanismi che favoriscono i “grandi numeri” (e quindi le opzioni scelte dal maggior numero di persone), che inevitabilmente tendono a polarizzare le possibilità.

Il principio è nettamente evidente, ad esempio, nella politica di molte nazioni occidentali, che anche in presenza di altri partiti minoritari vede per lo più contrapposte due fazioni: progressisti e conservatori, democratici e repubblicani, (centro)destra e (centro)sinistra, e così via; e di queste si dice spesso (per lo più ad opera di chi si propone come alternativa) che siano sostanzialmente equivalenti.

Queste contrapposizioni emergono però anche in altri aspetti della vita moderna, in alcuni dei quali la gente non è talvolta nemmeno abituata a pensare che ci sia una scelta significativa; o in altri ancora, in cui l'apparentemente vasta gamma di opzioni emerge da una frammentazione di un mercato effettivamente polarizzato (quando non addirittura monopolistico).

Una famosa infografica descrive ad esempio la rete di controlli e proprietà dei principali produttori e distributori dei prodotti normalmente disponibili nei supermercati, mostrando come, nonostante la grande varietà apparente, tutto finisca in realtà in mano ad una decina di multinazionali. Se si guarda la spesa al supermercato non più in termini di «quali prodotti comprare?» ma «da chi comprare?», improvvisamente la quasi infinita scelta di marche e prodotti è ridotta ad una decina di compagnie, ciascuna delle quali specializzata in una categoria di prodotti, riducendo di fatto il presunto libero mercato di ciascuna categoria a sostanziali monopoli o duopoli.

La questione si fa più sofisticata se più che al prodotto finito si va a guardare alle sue componenti, soprattutto per prodotti basati su tecnologie e conoscenze molto specialistiche, come l'elettronica di alto livello e l'informatica (telefonia, computer, etc). In questo caso, anche quando il mercato diretto ai consumatori è diviso tra un numero più sostanziale di produttori (ad esempio, Dell, HP, IBM, Asus, Apple, etc), ciò che si trova dentro i prodotti ha un'origine molto più limitata: i vari produttori si vanno quindi a differenziare per altri aspetti, che potranno essere la scelta dei materiali per la scocca, le rifiniture, la qualità del supporto, la quantità e qualità del software preinstallato o altri dettagli.

Per desktop e portatili, esempi di componentistica (hardware) a mercato limitato sono i processori (Intel vs AMD), le schede video (NVIDIA vs ATI/AMD, con Intel che compete solo sul mercato ‘low end’, spesso integrando l'uno o l'altro dei competitori), dischi fissi (Western Digital vs Seagate).

Anche in termini di software in realtà la scelta è molto limitata: per desktop e portatili, ad esempio, il mercato è dominato da Windows (su quelli un tempo detti ‘compatibili IBM’ ed ora semplicemente PC, nonostante anche i prodotti Apple a cui vengono contrapposti siano personal computer non meno degli altri) e Mac OSX (su quelli Apple). Sui cosiddetti smartphone e sui tablet, la polarizzazione coinvolge sostanzialmente iOS (sui prodotti Apple) e Android (sulla maggior parte degli altri).

In realtà, al consumatore tipico della scarsa varietà dietro le quinte importa normalmente poco, poiché lo strumento, per quanto sofisticato, viene appunto visto come uno strumento, e finché svolge il lavoro per cui è stato procurato, ad un prezzo accettabile, il resto ha poca importanza.

Gli effetti di questa limitatezza sono infatti spesso subdoli, e legati ad aspetti della vita del consumatore di cui il consumatore stesso ha tipicamente poca percezione. È solo in momenti in cui eventi eccezionali causano danni ai pochi o unici produttori delle componenti comuni a tutti i prodotti della gamma che l'impatto diventa più immediato, come accadde con l'alluvione in Thailandia del 2011 che (al di là del disastro umanitario fuori tema in questo articolo) causò un improvviso (e perdurante) aumento dei prezzi dei dischi fissi.

È comunque importante notare che in tutti questi esempi di mercati e ambienti dominati da uno o due grossi nomi esistono anche alternative minoritarie.

In politica, esistono partiti minoritari (verdi, rossi, libertari, vaffanculisti). Nei supermercati, ai prodotti ‘di marca’ si affiancano sempre più prodotti ‘no brand’ locali o prodotti negli stessi stabilimenti di quelli di marca, ma venduti tramite altri canali. Ai grandi nomi dei computer di marca si affiancano assemblatori locali (che però utilizzano alla fine sempre le stesse componenti). La Toshiba vende pure dischi fissi, ma con quote di mercato che sono meno di metà di quelle dei due competitori dominanti.

Anche nel mercato del software esistono concorrenti minoritari. Per i telefonini abbiamo per esempio le minuzie delle varie versioni (incompatibili tra di loro e con le versioni desktop) di Windows per telefonini e palmari con cui la Microsoft non è riuscita a sfondare, ma anche le moribonde esperienze dei sistemi Linux quali Maemo e Meego, della quale è stata per breve tempo campione la Nokia, e volendo anche il Symbian dei cosiddetti feature phones. Analogamente, sui computer abbiamo Linux e (con percentuali ancora più basse) i vari membri della famiglia dei sistemi UNIX (FreeBSD, OpenBSD, etc).

La scelta quindi c'è, ma la sua vera ricchezza è spesso poco visibile, o comunque difficile da raggiungere.

Non scegliere

Una delle più notevoli (e trascurate) facoltà di chi si trova davanti ad una scelta è la possibilità di non scegliere. Le motivazioni, le implicazioni e le conseguenze di una mancata scelta sono molteplici, e variano da persona a persona, da caso a caso.

L'esercizio ‘attivo’, cosciente della facoltà di non scegliere1 è generalmente legato ad una insoddisfazione nei confronti delle possibili scelte proposte, più raramente anche ad una generale opposizione nei confronti del contesto in cui la scelta viene offerta.

Ad esempio, un cittadino potrebbe decidere di non votare perché non si sente rappresentato da nessuno dei candidati, o perché ritiene che la propria scelta sia insignificante, o perché “è tutto un magna magna” e quindi non importa chi vince, mentre un libertario è più facile che non voti semplicemente perché ritiene che la democrazia rappresentativa, già a livello concettuale, sia una farsa.

In questo senso, non scegliere può anche essere una forma di protesta nei confronti di un certo tipo di contesto, di servizio, di prodotto: un boicottaggio diretto non tanto ad una specifica marca quanto ad una categoria. Si può così decidere di non scegliere (più) un giornale piuttosto che un altro, smettendo semplicemente di leggerli; o di ascoltare la radio; o di guardare la televisione; o di comprare nuova musica, o nuovi film.

Infine, vi è il non scegliere per mancanza di interesse. Ad esempio, non necessariamente se mi piace seguire uno sport devo tenere particolarmente al successo di una squadra o di un giocatore. O del colore degli asciugamani potrebbe effettivamente non importarmi, purché la spugna sia di buona qualità.

La facoltà di non scegliere si manifesta generalmente come ‘scelta di non’ (votare, comprare qualcosa, fare qualcos'altro), ma non sempre equivale a non fare una scelta. Ad esempio, nelle votazioni in cui è necessario un quorum (come per i referendum italiani), non votare contribuisce materialmente a mantenere lo statu quo se il quorum non viene raggiunto, ma non nel caso in cui esso venga invece raggiunto; un discorso simile vale per figure pubbliche di spicco, la cui mancata presa di posizione su argomenti importanti può essere (e facilmente viene) letta come un implicito appoggio allo statu quo; nei casi in cui vige il cosiddetto silenzio-assenso, invece, non scegliere equivale ad accettare la novità proposta; e quasi sempre non scegliere di fare qualcosa ha gli stessi risultati che scegliere di non farla.

In contesti privati, gli effetti della mancanza di una scelta sono normalmente molto circoscritti. Se ad esempio io volessi comprare un lettore di ebook e mi ritrovassi insoddisfatto dalle alternative presenti sul mercato, la mia scelta di non comprare nulla ha come principale (se non unica) conseguenza il mio mancato possesso dello strumento in questione.

Ben diverso è il caso in contesti pubblici, in cui la mia scelta è collegata a quella di altre persone, ed ha effetti che influiscono tanto sulla mia vita quanto su quella degli altri. In questi casi, la mancanza di una scelta ha effetti che si ripercuoto sulla vita di tutti, in misura diversa a seconda delle circostanze e della persona: l'influenza dell'opinione —o della sua mancanza— di un politico segue meccanismi diversi da quelli del ‘comune cittadino’, per il quale vigono i principî dei comportamenti di massa (il contributo del singolo è insignificante, ma necessario: tolte quante noci un sacco non è più pieno?)

È proprio in questi contesti, ovviamente, che la ‘non scelta’ come espressione di scontento o di protesta diventa significativa, scivolando nel paradosso secondo cui meno vale (singolarmente) la scelta individuale, più importante è il suo peso (unito ad altre scelte uguali): è quindi importante che le scelte (o non scelte) in questi contesti siano numericamente estese, e quindi pubbliche e pubblicizzate.

Con la sottigliezza tipica della teoria dei giochi, si tratta quindi di sfruttare gli stessi meccanismi che portano alla polarizzazione delle scelte (dominano solo quelle che possono assicurare o promettere di essere maggiormente condivise) per raggiungere una massa critica e cambiare le cose.

Ma la massa critica non è sufficiente; occorre qualcuno che l'alterativa concreta la possa offrire: qualcuno che fondi un partito con quegli obiettivi, il produttore di crema di nocciole con quella composizione, il produttore di computer con quella configurazione hardware e software, il produttore di componenti a quel prezzo, e così via. E chi se ne fa carico?

È proprio da questo che emerge un aspetto importante nascosto sotto il diritto di non scegliere: esclusi i casi di sincero disinteresse nei confronti della tematica della scelta, esercitare il diritto di non scegliere per scontento o protesta è, in qualche modo, indice di una ‘sconfitta’. Anche per questo è facile riscontrare una certa tendenza a nascondere la propria scelta di non scegliere dietro un apparente disinteresse, anche quando tale insincero disinteresse non è difficile da smascherare, nella foga con cui il tema in questione viene trattato, o nella frequenza con cui si manifesta la propria insoddisfazione con le opzioni tra cui si sarebbe potuto scegliere o sui meccanismi per la loro selezione.

Difficilmente infatti si crederà che qualcuno non abbia interesse nel colore degli asciugamani se lo si ritrovasse a commentare in un blog di arredamento circa le scelte cromatiche disponibili. Ed ugualmente poco credibile sarebbe qualcuno che sostenesse di non avere interesse nemmeno nel sapere quale sia il sistema operativo del proprio computer o del proprio smartphone, salvo poi passare il tempo a lamentarsi dei virus di Windows o dell'impossibilità di installare la tale applicazione sotto Mac OSX.

La ‘sconfitta’ che sottende la mancanza di scelta può essere di varia natura e profondità. Può essere la perdita di interesse nella ricerca dovuta all'eccesso di possibilità come lo sconforto di fronte alle poche opzioni proposte; può essere il riconoscimento della propria incapacità di adeguare realisticamente i propri gusti o le proprie esigenze alla propria disponibilità o alle leggi matematiche che regolano i mercati, come invece l'incapacità di riconoscere l'assenza di alternative a certi meccanismi di selezione.

Ma sempre più spesso non scegliere è il riconoscimento della perdita del controllo sul flusso che ci circonda, dell'impossibilità a supportare il costo richiesto dalla partecipazione alla costruzione di un'alternativa, o più in generale dell'impossibilità ad esercitare una benché minima influenza sulle scelte disponibili.

Costruire le alternative

La possibilità di scelta ha un costo, e tale costo è tanto più elevato quanto più le opzioni sono diverse tra loro. È importante osservare che il costo della scelta è un costo diffuso, che influenza tanto i produttori quando i fruitori delle scelte possibili, e che spesso ha un impatto anche sull'ambiente in cui questi agiscono.

Dal lato dell'offerta, rendere possibili più scelte è impegnativo perché ogni alternativa ha un costo (materiale o meno) di produzione; non è raro quindi che certe alternative vengano rese disponibili solo se e quando indagini di mercato suggeriscano che queste verranno scelte da un sufficiente numero di potenziali fruitori.

Ma le scelte, sia in contesti pubblici che in contesti privati, hanno un costo anche per chi le fa. Il primo e forse più importante costo è quello dell'informazione: salvo i casi di scelte fatte a caso o “seguendo l'istinto”, infatti, la comprensione di tutti gli aspetti delle varie opzioni, delle loro implicazioni, delle loro conseguenze è un punto essenziale per effettuare scelte oculate.

Poiché informarsi costa (tempo ed altre risorse) ed è spesso difficile, capita di frequente che si seguano le scelte più popolari, affidandocisi ad una percepita ‘saggezza della massa’ facilmente criticabile con una famosa battuta di Marcello Marchesi: mangiate merda, milioni di mosche non possono essersi sbagliate.

In realtà, le scelte popolari hanno anche altri vantaggi, che contribuiscono a renderle più appetibili, contribuendo a quella concentrazione delle opzioni già discussa in precedenza secondo principî ben noti (“i soldi chiamano i soldi, i pidocchi chiamano i pidocchi”, “a chi ha sarà dato, a chi non ha sarà tolto anche quello che ha”) e che in statistica porta a distribuzioni di Pareto.

Nel caso della politica, ad esempio, il vantaggio è evidente: i partiti più popolari sono quelli che governano, quelli meno popolari è difficile se non impossibile che riescano a far sentire la propria voce.

Ma anche in contesti più pratici, persino privati, le scelte popolari sono vantaggiose: non solo sono più facilmente reperibili, ma sono meglio fruibili grazie ad una maggiore diffusione del contorno.

Così, ad esempio, un veicolo a GPL o metano, che potrebbe essere preferibile per vari motivi (ecologici o economici), ha lo svantaggio della notevole inferiorità numerica dei distributori di quel tipo di carburante (in Sardegna, ad esempio, non vi sono distributori di metano).

Così, ad esempio, un utente Mac non potrà usufruire della vasta gamma di software sviluppati per Windows: un problema che va risolvendosi con il diffondersi dei prodotti della Apple, e che oggi è più un problema (o come tale è percepito) per chi usa Linux.

Gli esempi potrebbero andare avanti, ma avrebbero un unico filo conduttore: l'interoperabilità. Una preferenza minoritaria diventa più pratica quando può interagire facilmente con quelle più popolari.

Così, ad esempio, un veicolo a GPL o metano che abbia la doppia alimentazione (benzina e gas) può sopravvivere anche in assenza di distributori specifici. Così, ad esempio, un progetto come WINE permette di utilizzare software per Windows in Mac OSX e in Linux.

L'interoperabilità ha però due problemi: è un'arma a doppio taglio, ed è (generalmente) un onere delle opzioni minoritarie ‘diventare’ interoperabili con quella maggioritarie.

Della combinata opportunità e pericolosità dell'interoperabilità ho già accennato altrove parlando di Linux nel desktop: se la possibilità di alimentare anche a benzina una macchina a gas aiuta la sopravvivenza di questi veicoli, è anche vero che disincentiva la costruzione di stazioni di servizio mirate, e riduce anche considerevolmente la convenienza del veicolo stesso (il cui unico vantaggio è proprio nell'uso dell'alimentazione a gas); se WINE permette di usufruire di software per Window sotto Linux e Mac OSX, appoggiandone quindi in qualche modo la diffusione, è anche vero che disincentiva lo sviluppo di software ‘nativo’ a queste piattaforme, decretandone quindi contemporaneamente l'insuccesso.

Che l'interoperabilità sia ‘a spese’ delle scelte minoritarie è anche abbastanza ovvio: che incentivo hanno infatti i proponenti di scelte più popolari al venire incontro ai concorrenti? Nessuno.

L'obiettivo primo (cosciente o meno, ufficiale o meno) di ogni attore in un mercato è l'acquisizione di una posizione dominante, possibilmente monopolistica: questa infatti gli permetterebbe di minimizzare i costi e massimizzare i profitti come la presenza di alcuna concorrenza mai gli permetterebbe. E questa è qualcosa che nemmeno il più sfegatato sostenitore del libero mercato potrebbe negare.

(Meno sostenitori del liberismo concorderanno con la naturale tendenza dei liberi mercati a degenerare verso oligopoli e monopoli, ma questa discussione la riservo ad altri momenti.)

D'altra parte, se l'assunzione di una posizione monopolistica è estremamente conveniente per il singolo produttore che la raggiunga, essa è, soprattutto sul medio e lungo periodo, estremamente dannosa per il mercato, per i concorrenti, per i consumatori, ed infine persino per i monopolisti stessi.

Ho già fatto altrove qualche esempio di come la monocultura web abbia sostanzialmente arrestato lo sviluppo di Internet come piattaforma universale per anni, e di come la stessa Microsoft si sia trovata, dieci anni dopo, a ‘combattere contro il proprio successo’, ma gli esempi dei problemi legati ai predominî si trovano dovunque, non solo in informatica (dove tra Microsoft, Apple e Google potrei andare avanti all'infinito).

In agricoltura, ad esempio, le coltivazioni clonate (“più semi Monsanto per tutte”) sono fragili: intere, chilometriche piantagioni possono venire distrutte da una modesta infezione a cui tutte le piante sono ugualmente sensibili (la più diffusa varietà di banane, le Gros Michel, degli anni '50 si estinse così; e non è impossibile che le Cavendish cui è abituata la nostra generazione subiscano la stessa sorte). La biodiversità non è solo una problematica per radical-chic.

Quando si parla di contenuti artistici e simili opere dell'ingegno (libri, musica, video), il controllo di associazioni come FIMI e SIAE in Italia, MPAA e RIAA negli Stati Uniti, o le equivalenti nelle altre nazioni, è nuovamente uno dei più grossi ostacoli al progresso, per la loro totale incapacità a riformarsi scendendo a patti con le nuove possibilità offerte dal digitale e dalla distribuzione online. È interessante notare che in questo specifico contesto, peraltro, non sono ‘vittorie’ come quella di Apple per il proprio negozio musicale per iTunes, o Google Music, a marcare la differenza o a segnare la presenza di “opzioni minoritarie”: il loro successo, infatti, segna solo una transizione da una rosa di maggioritari ad un'altra. È piuttosto il successo di iniziative come quelle dell'Humble Indie Bundle o di altre piccole distribuzioni indipendenti, a volte anche private, di cui ho già parlato anche altrove, a denotare la possibilità di successo delle alternative minoritarie.

Mi fermo qui con gli esempi, perché ritengo che la questione sia ormai abbastanza chiara: nonostante la tendenza della riduzione effettiva delle scelte ‘convenienti’ ad un numero molto limitato di scelte ‘popolari’, la presenza di alternative minoritarie non solo è un marcatore della buona salute di un mercato o contesto, ma ne è anzi una componente primaria della salute stessa, ed in quanto tale va coltivata.

Ogni volta che si prenda in considerazione la possibilità di non scegliere, per protesta, per insoddisfazione, si dovrebbe piuttosto optare per contribuire alla diffusione, al raffinamento delle opzioni minoritarie, alla loro crescita, alla rottura dei circoli viziosi che portano alla malsana concentrazione di preferenze verso le poche offerte dominanti.

È importante comprendere che l'alternativa che vogliamo non ‘pioverà dal cielo’, non ci verrà offerta dal buon cuore di qualcuno: va creata. E questa creazione ha un costo, costo che non è sostenibile solo da chi infine si manifesta disponibile a produrla, e che va sostenuto anche da chi è interessato al successo di questa alternativa: sostenuto non con parole, auguri, teorie, ma con interventi pratici, nel lungo processo che dall'idea porta alla sua realizzazione.

Mi si permetta dunque di concludere parafrasando un famoso motto della logica aristotelica a noi giunto e da noi diffusosi in lingua latina: tertium non datur, sed construendum.

  1. vi è anche una mancanza di scelta più passiva, in cui pur essendovi la volontà di esercitare una scelta, questa non viene effettivamente compiuta, o non si agisce in conseguenza della scelta fatta, vuoi per pigrizia, vuoi per eccesso di opzioni tra cui scegliere, vuoi per altri motivi. ↩

Sul colonialismo linguistico

Leggo la traduzione italiana di un articolo in spagnolo sulla (presunta) anglicizzazione della lingua italiana, e mi trovo costretto a sorvolare sull'ironia di un articolo del genere, tradotto piuttosto che scritto, e per di più da una che si occupa di Social Media Monitoring (ovvero ‘Osservazione delle Reti Sociali’), per concentrarmi piuttosto sul tema trattato dall'articolo stesso, articolo che purtroppo mischia con una certa confusione una moltitudine di casi di penetrazione dell'inglese che hanno origini e motivi disparati. Cercherò in quanto segue di discutere ciascun punto indipendentemente, partendo da quello che a me preme di più.

La criticatissima scelta del Politecnico di Milano di istituire corsi postlaurea e dottorati di ricerca in lingua inglese, per quanto controversa, è ben lontana dall'essere peregrina o modaiola. Piaccia o no, l'inglese attualmente è la lingua internazionale della ricerca: la stragrande maggioranza della letteratura scientifica più significativa è in inglese, ed è sostanzialmente impossibile farsi conoscere a livello internazionale senza comunicare in inglese. L'inglese è la lingua dei convegni internazionali, l'inglese è la lingua delle riviste internazionali, l'inglese è, di fatto, la lingua corrente della scienza e della tecnologia.

Semmai, si potrebbe lamentare che in campo tecnico-scientifico, la dominazione linguistica dell'inglese è purtroppo ben lontana dall'essere efficace al 100%: gli italiani e i francesi sono gli zimbelli del panorama scientifico internazionale proprio per la loro incapacità ad esprimersi e comunicare correttamente in inglese (gli italiani per crassa ignoranza, i francesi per ottuso campanilismo), anche nell'inglese tecnico.

Piaccia o no, un ricercatore che debba far conoscere il proprio lavoro a livello internazionale deve saper comunicare in inglese, ed a questo punto è meglio che impari a farlo correttamente, prendendo quanto prima dimestichezza con la lingua in questione, e soprattutto con quella specialistica.

È riportata nell'articolo l'opinione di Tullio Gregory (eh) che sostiene che “imporre l'inglese non ci rende più moderni né più produttivi”; la frase può essere tranquillamente rigirata, osservando che imporre l'italiano non ci rende più moderni né più produttivi.

Quello che non viene sufficientemente evidenziato è che l'Italia è (e purtroppo rimarrà) fanalino di coda nella ricerca scientifica e nel progresso tecnologico1 a prescindere dalla scelta della lingua, perché le cause sono ben altre (mancanza di investimenti, meschini localismi, leccaculismi e nepotismi).

Il passaggio, in corsi postlaurea e nel dottorato, all'inglese come lingua ufficiale non è certo condizione sufficiente ad aumentare il peso della ricerca italiana a livello internazionale, ma non è molto lontano dall'essere necessario. (E vorrei rimarcare che la ripetuta evidenziatura di postlaurea e dottorato non è casuale: in molte critiche fatte al PoliMi si parla della scelta dell'inglese come se fosse riferita anche agli anni del curriculum universitario di base.)

Lavorando nel mondo della ricerca scientifica, ho preso da anni la buona abitudine di scrivere direttamente in inglese tutto ciò che promette anche solo lontanamente di diventare materiale pubblico; se preparo una presentazione, il testo delle diapositive sarà in inglese, non in italiano, anche per conferenze italiane, perché il materiale potrà tornarmi utile in altre conferenze (internazionali): ed è più semplice parlare in italiano su diapositive in inglese che viceversa, giacché ogni ricercatore che si rispetti è in grado (o dovrebbe essere in grado) di capire le diapositive in inglese, nel caso perdesse qualche parola della presentazione orale.

Negli ultimi due anni ho anche insegnato un corso libero offerto dal mio dipartimento; anche in questo caso, le note del corso sono state preparate in inglese, sebbene le lezioni frontali si svolgano in italiano. Per inciso, il corso è forse l'unico in Italia sull'argomento, ed uno dei pochi anche a livello europeo: non sarebbe strano che qualcuno, eventualmente anche dall'estero, decidesse di appoggiarsi ai miei appunti —pubblici, online (‘in linea’)— per studiare l'argomento.

Immagino che sia questo quello che nell'articolo viene definito “bilinguismo virtuoso, che favorisca i contenuti, la loro divulgazione e la formazione completa degli studenti, italiani e stranieri”, secondo le parole di Emanuele Banfi (PDF).

Il tentativo di forzare l'italiano anche in ambito scientifico e tecnologico mi ricorda la straniante esperienza avuta con i primi manuali di informatica che mi capitarono tra le mani, alcuni in inglese, altri tradotti o scritti in italiano. Ricordo ancora quei testi dei tardi anni '70 e degli anni '80 che traducevano tutto, arrivando a parlare di I/E invece di I/O (immissione/emissione invece di input/output), ‘spiazzamento’ invece di offset, ‘bachi’ invece di bug, e così via. Lodevoli sforzi di resistenza alla dominazione linguistica, ma che non posso fare a meno di considerare abbastanza ridicoli.

Ogni èra, ogni area geografica, ogni campo della conoscenza, ha —inevitabilmente— la sua dominazione linguistica. Ci si lamenta ora delle influenze anglosassoni, ma ci si dimentica forse che un paio di secoli fa la cultura francese era talmente dominante che in posti come la Russia la lingua della cultura, sfoggiata da artisti ed aristocratici, era il francese. Anche l'inglese farà il suo tempo, e verrà sostituito prima o poi da un'altra lingua, probabilmente asiatica (il giapponese o il mandarino), forse chissà, persino entro la fine del secolo.

Portare il protezionismo linguistico alla paranoia è inutile. Le lingue evolvono, e i prestiti da altre lingue sono una componente fisiologica importante dell'evoluzione linguistica. Quante parole italiane non derivano dal latino, ma dal greco (biografia) o dal sassone (guerra)? Quante parole abbiamo più recentemente importato da cugini prossimi quali il francese (chic) o lo spagnolo (golpe)?

Più che preoccuparmi dell'ingresso in sé e per sé di termini inglesi nell'italiano, io guarderei piuttosto ai modi e motivi dell'utilizzo che si fa di questi termini. Vediamo quindi alcuni dei casi citati nell'articolo.

La dichiarazione di Monti sul proprio sense of humour (non humor!) britannico è un classico esempio di grande finezza linguistica: dopo tutto, il british sense of humour è ben diverso, qualitativamente e contenutisticamente, dal senso dell'umorismo italiano; l'uso dell'espressione inglese invece di quella italiana contribuisce a rimarcare la differenza tra i due sensi dell'umorismo. Ben diverso è invece il caso del drink nel week-end, che ha origini nello snobismo delle Milano e Roma ‘bene’ del secolo scorso, la cui affettazione linguistica d'importazione è poi percolata, per emulazione, nel linguaggio comune.

Chi mi conosce sa che sono un grande amante della lingua italiana, e posso affermare senza problemi che mi piace esprimermi non solo in un italiano corretto, ma anche (se e per quanto possibile) ‘forbito’. Ma allo stesso tempo mi è impossibile negare la praticità delle lingue straniere in opportuni contesti.

In molti casi, ad esempio, l'uso di termini o espressioni straniere aiuta ad essere sintetici, laddove il termine straniero sia entrato nella lingua comune con significati più specifici dell'equivalente italiano, o laddove l'espressione straniera sia semplicemente più breve di quella italiana: così ad esempio è per lo spagnolo golpe, entrato in italiano (come anche in inglese!) ad indicare specificamente il colpo di Stato; di spread (e vorrei sapere chi ha scelto di tradurlo con l'orrendo ‘differenziale’ piuttosto che con scarto o divario) si parla principalmente, e spesso ormai implicitamente, in riferimento a quello tra buoni del tesoro a 10 anni italiani e tedeschi; e sinceramente fan è molto più comodo di appassionato sostenitore, pur venendo dal latino fanaticus ed essendo traducibile con l'italiano fanatico, che viene però generalmente riservato ad altri significati; ed è indubbiamente più sintetico, benché improprio, parlare di Ministero del Welfare piuttosto che finire il giorno dopo con il suo nome completo in italiano (Ministero del Lavoro, della Salute, e delle Politiche Sociali) —e per inciso non è di welfare nel senso di ‘benessere’ che si parla, come sembra suggerire l'articolo, ma di welfare state nel senso di Stato sociale.

In altri casi, il termine straniero aiuta ad identificare l'origine del prodotto: non vedo nulla di male nell'usare manga ed anime per fare riferimento a fumetti e cartoni animati giapponesi; analogamente, sarebbe bello tornare a parlare di romanzi a fumetti piuttosto che di graphic novels —se solo in Italia questi prodotti avessero la dignità che loro spetta, incoraggiando così gli autori nostrani a competere con i più famosi autori del mondo anglosassone.

In altri casi ancora, il termine si riferisce specificamente a prodotti non italiani (d'origine), per cui il termine italiano non esiste o è stato creato ad hoc. E benché parlare di elaboratori piuttosto che di computer puzzi sinceramente di autarchia linguistica di stampo fascista, è anche vero che anche a me non dispiacerebbe trovare termini italiani con cui poter tradurre laptop, notebook, netbook, tablet senza suonare prolissamente verboso e pomposamente pretenzioso; d'altra parte è possibile che l'ironico umorismo del neologismo furbófono aiuti il termine a prendere piede come traduzione di smartphone.

Potrei andare avanti, ma preferisco concludere qui, con la seguente osservazione: preoccuparsi della mancanza di una “politica culturale linguistica” in Italia mi sembra un po' come lamentarsi di un prurito al mignolo quando l'intero braccio sta andando in cancrena. La mancanza di una politica culturale linguistica è solo una microscopica diramazione dell'ultimo stadio del totale sgretolamento della cultura italiana, della politica italiana, e solo infine della politica culturale, in atto da almeno trent'anni.

L'assimilazione di lingue e culture straniere è frutto, non radice della povertà culturale. È inutile appellarsi, per difendere l'italiano corrente dall'invasione delle lingue straniere, a produzioni artistiche e culturali del secolo scorso o precedenti ancora; è alla produzione attuale che ci si dovrebbe rivolgere; e cos'ha avuto la nostra cultura da offrire, negli ultimi trent'anni, agli italiani, a parte tette e culi? E perché mi trovo, a quasi un secolo di distanza, a fare discorsi che finiscono inevitabilmente verso un'analisi che ricalca quella già fatta quasi un secolo fa da Antonio Gramsci, e purtroppo ancora valida?

Sono tre i pilastri per una rinascita della cultura italiana: una solida istruzione pubblica (scuola e università), una viva diffusione di buoni contenuti di massa (via radio, televisione ed Internet2) e pesanti investimenti nella ricerca scientifica e tecnologica. Insomma tre cose che in Italia non si avranno mai.

  1. nota bene: l'Italia, ma non certo gli italiani, molti dei quali trovano proprio all'estero l'occasione di mostrare brillantemente non solo le proprie capacità, ma anche i benefici del nostro tanto criticato sistema scolastico (ormai abbondantemente demolito) e quali siano i veri problemi della ricerca in Italia. ↩

  2. e qui non sarebbe male prendere ad esempio il modello della BBC, giusto per rimanere ironicamente in tema di colonialismo culturale. ↩

Pistorius e le Olimpiadi

Personalmente, mi trovo in disaccordo con la scelta di ammettere Oscar Pistorius alle Olimpiadi del 2012.

Una regola introdotta dall'IAAF nel 2007 bandisce l'utilizzo di “ogni strumento tecnico che includa molle, ruote, o altri elementi che forniscano all'utente un vantaggio su altri atleti che non utilizzano tale strumento”. La regola, benché sembri scritta espressamente per escludere Pistorius, mi sembra chiaramente condivisibile: si tratta sostanzialmente dell'equivalente nella corsa della regola che esclude l'uso delle pinne nel nuoto.

È importante osservare che il regolamento è formulato in modo da essere molto specifico: non è bandito l'utilizzo di qualunque strumento tecnico, ma soltanto di quelli forniscono un vantaggio (considerato in tal senso sleale) rispetto al “corpo libero”.

Per questo il dibattito su Pistorius si è incentrato sostanzialmente sul cercare una risposta alla domanda se effettivamente le sue protesi gli dessero un vantaggio rispetto all'utilizzo di gambe umane; i risultati di una ricerca preliminare dimostrarono che tale vantaggio era netto ed evidente, ma furono in seguito ignorati in quanto limitati alla “fase di crociare” (corsa in rettilineo dopo il raggiungimento della massima velocità), ignorando le penalità che le protesi davano invece in fase di accelerazione e nello scatto iniziale. La decisione finale fu quindi di permettere a Pistorius di competere, in quanto non era stata dimostrato un suo complessivo vantaggio rispetto agli atleti senza protesi.

Quale competizione?

Il mio disaccordo con questa decisione nasce dalla seguente riflessione. Il punto di partenza è la domanda: qual è lo scopo della competizione? (Nello specifico, si parla ovviamente della gara di corsa per i 400 metri.)

La risposta, a mio parere, è la seguente: mettere a confronto le capacità fisiche degli atleti; capacità quali: tempo di reazione (sparo/scatto), accelerazione (tempo/spazio necessari per il raggiungimento della “velocità di crociera”), resistenza (capacità di mantenere tale velocità per sufficiente tempo).

Ora, se nessuno degli atleti usa protesi, è evidente che il risultato della competizione sarà legato esclusivamente (modulo aspetti di cui parlerò più avanti) alle effettive capacità e prestazioni fisiche dell'atleta. Se un atleta ha meno scatto iniziale, è perché le sue capacità sono inferiori; se un atleta raggiunge una velocità di crociera maggiore, o è in grado di mantenerla più allungo, è perché le sue capacità sono superiori.

Per contro, con l'utilizzo di una protesi il confronto non è più (solo) tra le capacità degli atleti, ma anche tra le proprietà tecniche della protesi utilizzata; se un atleta con protesi ha meno scatto di un (altro) atleta senza protesi, bisogna tener conto del fatto che parte della differenza è dovuta alle effettive capacità dell'atleta, ma parte è dovuta alle proprietà della protesi; analoghe considerazioni nel caso in cui un atleta con protesi riesca a mantenere una velocità di crociera più alta per più tempo di un atleta senza protesi.

A prescindere dal fatto che si sappia o meno quanto la protesi influenzi le capacità dell'atleta, rimane il fatto che ammettere l'utilizzo di una protesi altera lo scopo della gara: non si tratta più di valutare le capacità degli atleti, ma diventa un confronto che comprende atleti e protesi.

Vestiti per competere

In realtà, poiché gli atleti non corrono nudi, esiste già un certo numero di fattori che influenzano le prestazioni degli atleti e che prescindono, in larga misura, dalle loro capacità fisiche.

Il fattore più importante è certamente la calzatura: proprietà di presa ed elasticità della scarpa possono infatti un impatto non trascurabile in ogni fase della corsa. Anche in questo caso l'IAAF impone alcuni limiti sulle scarpe utilizzabili in gara, ma un certo margine rimane.

(È curioso notare anche che, viste ormai le incredibilmente piccole differenze che spesso ottengono gli atleti, non sarebbe sorprendente scoprire che anche cose come il modo in cui gli indumenti aderiscono al corpo dell'atleta, o persino il taglio di capelli, possono avere una certa influenza sull'esito della gara.)

Viene da chiedersi se per rendere la competizione più ‘pura’ non sia addirittura il caso di richiedere che gli atleti corrano a piedi nudi (l'etiope Abebe Bikila è forse il più famoso maratoneta a competere in queste condizioni).

E perché non un ritorno alle origini, quando la ginnastica si praticava nudi? (Anche se probabilmente proprio per la corsa un minimo di binding è necessario, del seno per donne, del pene per gli uomini.)

Valutazione d'impatto

Tornando alla questione delle protesi, vi è in realtà un metodo per valutare l'impatto che le protesi possono avere sulle prestazioni degli atleti; la soluzione, ovviamente, è quella di mettere a confronto le prestazioni dello stesso atleta, con e senza le protesi.

Prima che a qualcuno venga la perversa idea di mozzare le gambe a qualcuno per fare gli esperimenti, vorrei ricordare che Chell, la protagonista di Portal, ha delle protesi alle gambe, pur essendo fisicamente integra; nel gioco le protesi, non dissimili nel design da quelle utilizzate da Pistorius, hanno la funzione di assorbire parte dell'energia cinetica in caso di caduta verticale, evitando danni alle gambe (o al resto del corpo) del soggetto.

Una soluzione del genere1 sarebbe possibile anche per gli atleti; si potrebbe così valutare, per uno stesso atleta (con adeguato allenamento anche all'uso della protesi), quanto le sue prestazioni cambino con l'utilizzo della protesi, nelle varie fasi della gara.

Ovviamente, per avere una buona valutazione dell'impatto della protesi sarebbe necessario uno studio statistico valido, che coinvolga un adeguato numero di atleti, e ripetute corse con e senza le protesi.

Competizioni dedicate

Ma oltre alla valutazione dell'eventuale vantaggio o svantaggio dell'utilizzo di protesi nella corsa, c'è un approccio molto più elegante al problema.

La mia obiezione, infatti, pertiene l'ammissione di Pistorius a competere nei 400 metri “a corpo libero”. Nulla vieta però l'istituzione di una gara di corsa “con strumenti”, non dissimile dalle gare di nuoto pinnato distinte dalle gare di nuoto semplice. Invece delle biciclette, gli strumenti sarebbero protesi per le gambe o altri simili supplementi.

In una tale competizione, in cui le protesi siano utilizzati da tutti gli atleti, un eventuale vantaggio di Pistorius sarebbe solo nei confronti di atleti di identica costituzione, per via della differenza di peso all'effettiva mancanza (di parte) delle gambe, ma la cosa non sarebbe diversa dalle normali differenze di peso tra gli atleti. La competizione sarebbe fair, e distinta da quella senza strumenti.

Una diversa prospettiva

Il caso Pistorius può anche essere visto da una prospettiva filosoficamente molto diversa, ovvero quella del postumano; in tal senso, la lotta di Pistorius per il riconoscimento del proprio diritto a competere fuori dalle Paralimpiadi costituisce di fatto una lotta perché la sua situazione non sia più giudicata un handicap; per gli entusiasti, Pistorius è piuttosto uno dei primi esempi di postumano, un ibrido tra uomo e macchina.

Anche con questa prospettiva, in realtà, la sua partecipazione alle Olimpiadi rimane quanto meno dubbia; se già uomini e donne competono in gare separate, infatti, non si capisce perché umani e postumani possano invece competere nelle stesse gare.

C'è di peggio, anzi: con questa prospettiva, infatti, l'ammissione di Pistorius alle Olimpiadi non sarebbe nemmeno ammissibile con una gara di corsa in cui sia ammesso l'utilizzi di protesi, perché rimane, insuperabile, la divisione di categoria.

E allora forse non è ancora al momento di proclamare “The age of Pistorius”.

  1. non proprio, in realtà, giacché la roba nel primo Portal è stata impiantata chirurgicamente, richiedendo la sostituzione (di parte) del ginocchio del soggetto; per l'atletica non sarebbero ovviamente necessarî gli accorgimenti richiesti dalla necessità di assorbire l'energia di cadute da altezze folli, quindi l'intervento chirurgico non sarebbe necessario. ↩

De cacatio

Il vaso sanitario è da certuni considerato una delle massime invenzioni della cultura occidentale.

È incontestabile che in termini di comfort e praticità, il vaso è una soluzione che batte di parecchio qualunque altro approccio al problema dell'evacuazione; in effetti, la comodità del trono è tale da portare spesso gli utenti ad ‘abusarne’, se così possiamo dire.

Ad esempio, chi di noi non ha mai trasformato una seduta in gabinetto in un momento di lettura, persino eventualmente attingendo ai profondissimi pensieri delle etichette dei prodotti da bagno in mancanza di libri, riviste, fumetti?

Eppure, con tutto il suo comfort, con tutta la sua praticità, c'è una domanda che dovremmo porci: il vaso è davvero lo strumento più adatto per la funzione principe che gli sarebbe preposta?

Una cosa che avevo notato fin da piccolo, senza però darvi troppo peso, era che, nei momenti di maggiori difficoltà espulsive, risultava utile chinarsi in avanti (cosa spesso facilitata da un buon libro poggiato sul bidet). Un trucchetto che ho sviluppato più avanti in età è stato quello di poggiare un piede di taglio contro il pavimento, con l'altro poggiato sopra.

Entrambe gli accorgimenti da me scoperti hanno in realtà lo stesso obiettivo (implicito): quello di cambiare l'angolo tra gamba e busto, in modo da avvicinare il corpo ad una postura accovacciata, che è nota per essere molto più funzionale all'evacuazione della postura normalmente assunta da seduti.

La domanda che si dovrebbe, in effetti, è la seguente: perché, se è ben noto, a livello scientifico e medico-sanitario, che la postura accovacciata è più funzionare di quella seduta, la cosa continua ad essere per lo più bellamente ignorata nella cultura generale occidentale?

La domanda è particolarmente seria dal momento che la postura accovacciata sembra aiutare contro una serie di problemi di salute (incluso il cancro al colon, uno dei più alti fattori di mortalità tumorale, soprattutto nei paesi occidentali).

Peraltro, non è nemmeno necessario rinunciare al comfort ed alla praticità del vaso sanitario occidentale e sacrificarsi su una toilet “alla turca” (sull'igienicità del quale ho peraltro qualche perplessità), per migliorare la propria postura.

Infatti, non solo esistono vasi specificamente progettati per permettere entrambi i tipi di utilizzo (fornendo una base su cui poter poggiare i piedi per accovacciarsi sul buco), ma basta acquistare uno sgabellino di una ventina o trentina di centimetri da tenere “a portata di piede”.

Rimane la perplessità del perché non si faccia maggiore propaganda su questo; è davvero un argomento talmente tabù? È solo una questione legata alla sensazione che accovacciarsi piuttosto che stare seduti sia una “cosa da terzo mondo”? O c'è qualcosa di più dietro?

Per fortuna, comincia però ad esserci una maggiore attenzione a questo aspetto, con il diffondersi di immagini (e persino di video) su internet per sensibilizzare i fruitori sul modo giusto di andare di corpo.

E questo è infine il mio piccolo contributo. E vi posso assicurare che da quando abbiamo preso lo sgabello va tutto molto meglio.

Terza (e Quarta) Rivoluzione Industriale

Anni fa avevo cominciato a raccogliere una serie di riflessioni sulla terza (e quella che secondo me è la quarta) rivoluzione industriale, internet, i poteri politici ed economici, la diffusione dell'informazione, la censura e la proprietà intellettuale.

Eccole ripescate doo un faticoso lavoro di archeologia (e grazie alla sempre ottima idea di pensare per tempo ai backup).

Sulla vita dei (prodotti dei) nostri pensieri nel mondo reale

Ovvero del come le navicelle del nostro ingegno finiscono immancabilmente per infrangersi sulla scogliera della realtà: dal software alle ideologie, i motivi per cui le migliori intenzioni degenerano nel proprio opposto al momento della loro realizzazione. O anche del come le rivoluzioni spostino i problemi senza risolverli. E qualche suggerimento su come evitare tutto ciò.

Il mito del ‘nuovo inizio’

Il fresh start è una grande tentazione per chiunque si ritrovi impelagato in situazioni da cui sembra impossibile uscire: mollare tutto e ripartire da zero è un'idea che porta insita la promessa che l'esperienza finora accumulata ci possa aiutare ad evitare di impelagarci, di nuovo, nelle stesse situazioni.

La realtà è ben diversa, e non tanto perché le situazioni passate possono riemergere, possono tornare a perseguitarci: anche quando si riesce davvero a liberarcisi delle catene del passato, a ripartire con rinnovata energia da una tabula rasa, inevitabilmente le stesse problematiche si riprogono, errori simili vengono commessi, e nuovamente ci si ritrova immersi in una melassa indistricabile.

Portrait of the programmer as an adolescent

Chi ha mai sviluppato o mantenuto software di dimensioni non insignificanti conosce molto bene la problematica: si raggiunge prima o poi un punto in cui la struttura del programma diventa talmente complessa che mettere mano in un qualunque punto del programma comporta conseguenze spesso imprevedibili da tutt'altra parte; lo sviluppo diventa sempre più simile all'irrisolvibile problema del coprirsi con una coperta troppo corta.

Ed il meccanismo inevitabilmente evolutivo di sviluppo del software porta il software stesso ad assumere una struttura intricata, contorta: vi sono aree che nessuno sano di mente guarderebbe nemmeno, meno che mai ardirebbe metterci mano: sembrano funzionare, e solo un pazzo potrebbe richiedere una migliorìa, una nuova funzione che le coinvolga. Eppure, queste situazioni sono e diventano insostenibili. Le migliorie sono richieste, i problemi devono essere sistemati. E qual è il modo giusto di uscirne?

La tentazione è, inevitabilmente, quella di riscrivere il software da zero: forti dell'esperienza della precedente versione, si sarà sicuramente in grado di rendere tutto pulito, funzionale e mantenibile. Questa idea è talmente integrata nel pensiero dell'ingegneria del software che plan to throw one away è uno degli argomenti più famosi e discussi di The Mythical Man-Month.

Un programma abbastanza famoso che ha subìto questo processo almeno due volte (e che si appresta a cadervi per la terza volta) è Mozilla Firefox. In origine era la Mozilla Suite, nata dalle ceneri del Netscape Communicator e riscritta in parte anche per eliminare le parti che non potevano essere rese pubbliche per motivi di licenze e brevetti. La sua pesante lentezza portò alla scelta di smembrare le varie componenti della suite (browser, posta elettronica e newsgroup, chat, editor per pagine web) in programmi separati ed independenti, ridotti al minimo indispensabile, con supporto per le famose ‘estensioni’ per chi vi desiderasse maggiore funzionalità.

Eppure, a sette anni dalla sua nascita, il ‘piccolo e veloce’ erede del browser della Mozilla Suite si ritrova ad essere talmente grosso e pesante da non poter essere più nemmeno compilato su Windows a 32-bit, nonostante i ripetuti e continui tentativi di evitare la sua abnorme crescita di dimensioni.

Che cosa è successo? Come brillantemente spiega Joel Spolsky, ricominciare da zero è qualcosa che non si dovrebbe mai fare. Il motivo per cui anche il software progettato nel modo più elegante possibile finisce immancabilmente per diventare un'accrezione inguardabile di spaghetti e polpette pelose è che anche il software progettato nel modo più elegante deve funzionare nel mondo reale.

Funzionare nel mondo reale, per un software, significa svolgere il proprio compito nelle più disparate delle condizioni esterne: da altri software dal comportamento imprevedibile all'utente sbadato, dalla sottoversione più sfigata del sistema operativo più diffuso al monitor con la risoluzione non-standard.

Poiché non si può imporre al mondo reale di comportarsi come il software dal design elegante presuppone che si comporti (ad esempio, nel migliore dei modi possibili), è il software dal design elegante che deve adattarsi alla disfunzionalità del mondo reale, e quindi fronteggiare i casi più strani. Ogni soluzione di uno di questi casi diventa una verruca nell'elegante progetto iniziale del software. E più a lungo sopravvive il software, più queste verruche si vanno accumulando, fino a diventare l'inguardabile obbrorio che spinge il programmatore a dire (inutilmente): basta, ricominciamo!

Ricominciare significa godersi brevemente l'illusione di un software elegante e pulito, finché la sua diffusione non lo riporta a fronteggiare i problemi risolti dalle precedenti verruche, e quindi a sviluppare, nuovamente, le stesse verruche. La riscrittura è quindi, nella gran maggioranza dei casi, una pura e semplice perdita di tempo, un procrastinare per evitare di affrontare il molto oneroso e poco piacevole compito di ripulire, con calma e pazienza, le verruche del codice.

Alla tentazione della riscrittura si cede facilmente quando la sopravvivenza del proprio software non è legato né alla qualità delle specifiche release né a ben determinate scadenze di consegna: ci si concede allora il lusso di rimandare il confronto della realtà per dedicarsi all'artistico compito di riscrivere tutto da capo, per produrre qualcosa di meno funzionale ed ugualmente prono al decadimento di ciò che si aveva prima.

Oltre al succitato Firefox, altri software si sono più volte trovati nelle stesse situazioni: Gnome, ad esempio, per il quale Jamie Zawinski ha coniato il termine CADT, Cascade of Attention-Deficit Teenagers; o alcune delle famose piattaforme ‘beta’ di Google.

La scelta del termine “adolescenziale” per caratterizzare questo comportamento è, a mio parere, molto azzeccata, giacché racchiude brillantemente sia l'entusiasmo, la passione, l'energia e l'idealismo con cui la riscrittura viene affrontata, sia la totale deresponsabilizzazione nei confronti dei compiti sgradevoli e tuttavia inevitabili (ma rimandati a forza): mettere in ordine la stanza il codice, ripulirlo e disinfestarlo.

E la cosa che rende perplessi è che, se anche è vero che nel mondo del software libero abbondano i contributi degli adolescenti, la stessa attitudine si riscontra anche in sviluppatori che dall'adolescenza dovrebbero essere già usciti da qualche decina d'anni.

Pratiche ideologiche

Ma non è solo nel software che l'istinto a ricominciare piuttosto che a risolvere problemi si fa sentire. Mi interessa qui soffermarmi quindi su un altro campo in cui l'abitudine imperversa: quello della politica, del sociale, dell'economia.

Come ho già avuto modo di dire, non si può criticare un'idea, un ideale, un'ideologia, una teoria per induzione da una sua implementazione specifica. È anche vero, d'altronde, che è proprio nel momento in cui dall'astratto si scende nel concreto, nel reale, che l'ideale si trova a dover fronteggiare tutte quelle questioni pratiche che si è potuto risparmiare rimanendo nella mente dei (‘grandi’) pensatori, nelle pagine dei filosofi, nelle chiacchiere dei rivoluzionari da poltrona.

La forma che prende il mito del ‘nuovo inizio’ in questo contesto è infatti quella della rivoluzione, un cambiamento drastico e decisivo, spesso violento, per abbattere il vecchio e sostituirlo con il nuovo.

Quante società attuali possono dire di non aver avuto rivoluzioni, nemmeno una volta nella loro storia? Spontanee “dal basso”, pilotate “dall'alto”, le rivoluzioni sono state in ogni tempo ed in ogni luogo il giunto del tentativo del cambiamento, della riscrittura della politica, della società, dell'economia di un popolo, di uno Stato, di una nazione.

Alla cancellazione, spesso violenta, della verrucosa e pelosa faccia dell'opprimente, insopportabile intoccabile obbrobrio (pars destruens) si è cercata di far seguire la costruzione (pars construens) di una nuova, elegante, giusta, equa, sana alternativa. A volte ci si è riusciti a spingere sorprendentemente lontani, in questo, prima che la realtà raggiungesse i rivoluzionari, e li costringesse ad affrontare quegli scomodi piccoli problemi concreti che nella loro utopica progettazione non avevano considerato —o peggio, avevano considerato diversi da quello che la realtà gli presenta infine.

E così i fortunati che non sono ricaduti in breve tempo nell'obbrobrio che avevano cercato di cancellare, si ritrovano a sviluppare verruche e peletti che deturpano l'ideale, allontanando l'implementazione dallo splendore in cui era avvolta finché rimasta nella mente. E magari con nuove facce, con nuovi nomi, magari persino con mimetici modi diversi, si ricostruiscono quegli stessi rapporti, quelle stesse strutture che si era tentato di cancellare e sostituire.

Tutto questo perché alla fine, nel concreto, anche la più pura delle ideologie dovrà affrontare egoismo, avidità, ingordigia, tradimenti, debolezze, violenza, schadenfreude, sadismo, vittimismo, disinteresse, protagonismo, ed ogni altro neo che da sempre caratterizza l'essere umano nella sua essenza. Ed un'idea che non sia basata su questo sin dal suo concepimento non ha alcuna speranza di sopravvivere, concretamente, nel mondo reale1.

E se l'unico modo di reagire a questi mutamenti, questi allontanamenti dall'idea, è con nuove rivoluzioni2, portando ad una condizione di rivoluzione permanente (o quanto meno ciclica) della quale la Grande Rivoluzione Culturale di Mao voleva essere l'esempio, non si è in una situazione dissimile dal CADT nel software: un sistema che può matenersi solo attraverso le rivoluzioni è, sostanzialmente, adolescenziale3 (nonché insostenibile)

Se anche una strategia rivoluzionaria fosse l'unica strategia possibile per l'implementazione di un particolare sistema sociale, politico, economico, perché essa sia veramente valida (e perché il sistema stesso lo sia), è indispensabile che la “spinta rivoluzionaria” non si esaurisca con il raggiungimento dell'“adolescenza”: è essenziale che la strategia porti la realizzazione fino alla piena maturità, che la consolidi, che la rafforzi, che la mantenga.

L'importanza di essere soft(ware)

Come detto sopra, nel caso del software non è (quasi) mai una buona idea buttare tutto e ripartire da zero. Piuttosto, è ben più proficuo (ma più laborioso e meno gratificante) operare con calma ed attenzione per estendere, ripulire, ristrutturare il software esistente.

È indubbio che il software si ritrova, da questo punto di vista, in una situazione privilegiata: la sua componente fondamentale (i bit che costituiscono il suo codice sorgente) non ‘invecchia’ per il semplice passare del tempo; l'obsolescenza del software non è mai una questione interna al software stesso: è legata piuttosto al variare dell'ambiente circostante: nuove librerie, nuovi sistemi operativi, nuove interfacce, e la necessità di adattarsi a questi mutamenti esterni.

Per contro, qualunque progetto sociale, politico o economico si trova a dover affrontare non solo pressioni esterne dovute alle condizioni ed ai cambiamenti dell'ambiente circostante, ma anche, come già accennato, pressioni interne dovute al naturale mutare delle società (non foss'altro che per il susseguirsi delle generazioni), con trasformazioni che, a seconda delle prospettive, possono essere viste come evoluzione o devoluzione, come progresso o come regresso, ma che immancabilmente si presentano.

Vi è un'altra sostanziale differenza che avvantaggia il software sugli ideali sociali, politici ed economici: la distinzione tra utenti ed implementatori.

Nel caso del software, gli utenti sono generalmente un gruppo diverso da (e tipicamente molto più vasto di) quello di chi crea e mantiene il software: anche se è generalmente consigliato consumare il proprio prodotto (ovvero che chi scrive il software ne sia anche utente), la maggior parte dei programmi hanno un bacino di utenza che va ben oltre quello dei suoi sviluppatori. Per contro, gli utenti di un qualunque sistema sociale, politico o economico ne sono per necessità anche gli implementatori, che ne traggano profitto o che ne vengano sfruttati, che vi partecipino volontariamente o che vi siano costretti, che ne siano gli ideatori o le vittime.

Nel caso del software, la distinzione tra utenti ed implementatori rende complessa la questione della sua esistenza, che si presenta in diverse combinazioni di forme. Finché rimanga un implementatore che si prenda cura di correggerne gli errori, di adattarlo alle variazioni dell'ambiente circostante, il software è mantenuto. Finché rimanga un utente che lo utilizzi (anche a costo di sforzi di vario livello per mantenerne invariato l'ambiente operativo), il software è utilizzato. Un software può essere mantenuto ed utilizzato (‘vivo’), utilizzato ma non mantenuto (‘obsoleto’ o ‘obsolescente’), mantenuto ma non utilizzato (praticamente un'endospora, pronto a risorgere non appena qualcuno ne (ri)scopra l'utilità e (ri)prenda ad usarlo).

Questa stessa distinzione permette la maturazione del software, la sua crescita e la riparazione dei suoi problemi, in modi sostanzialmente ‘indolori’ per l'utente: le modifiche possono essere collaudate prima di venir distribuite all'intero bacino di utenza, cambiamenti strutturali importanti (che semplificano futuri interventi sul software stesso) possono avvenire senza che siano percettibili agli utenti4, pur rendendo la loro esperienza indirettamente migliore, e così via (ovviamente, il fatto che questi mutamenti possano avvenire in maniera indolore per l'utente non vuol dire che nei fatti sia sempre così —non tutti coloro che mantengono software hanno la pazienza di lavorare nella maniera meno intrusiva per l'utente).

Per contro, l'identificazione tra utenti ed implementatori dei sistemi sociali, politici o economici ne semplifica in maniera drastica le condizioni di esistenza (essi esistono finché c'è gente che li pratica), ma ne complica le possibilità di sviluppo. Questi sistemi si trovano così in una situazione quasi paradossale, essendo da un lato soggetti a mutamenti interni ‘involontari’ e non controllati, e avendo dall'altro grandi difficoltà a gestire i mutamenti intenzionali (chi vuole il cambiamento? qual è il suo ruolo nell'attuale sistema? come può agire per modificarlo?).

E la ciliegina sulla torta è il fattore di scala: mentre un software può (almeno potenzialmente) crescere ed espandersi fino ad accontentare le esigenze di tutti (si pensi a come Linux, nato con l'unico obiettivo di funzionare sul computer personale di Linus Torvalds, sia cresciuto fino a coprire una gamma di hardware che va dai tostapane ai supercomputer, senza mai essere stato riscritto da zero), non credo si possa trovare un sistema sociale, politico o economico che possa soddisfare chiunque.

Non è difficile capire che proprio da questo nasce la frequenza delle rivoluzioni, nonostante la loro apparente inefficacia sul medio/lungo periodo.

Anche la scala temporale gioca fortemente a favore del software: i tempi di evoluzione tanto dell'ambiente circostante quanto del software stesso sono infatti estremamente rapidi, l'obsolescenza si gioca nell'arco di anni, e molti dei ‘padri fondatori’ dell'informatica moderna sono ancora vivi; per contro, le scale temporali per la società, la politica e l'economia sono molto più lunghe: si misura infatti in decadi, persino generazioni quello che nel mondo del software si misura in mesi, al più anni. Spesso, il promotore di un'idea non giunge nemmeno a vederne la prima implementazione, mentre nel mondo del software l'ideatore è spesso il primo implementatore.

Trasformazioni senza rivoluzioni

Nonostante le suevidenziate differenze, c'è a mio parere una importante lezione che si può apprendere dalla capacità del software di maturare senza rivoluzioni (o forse due lezioni, ma talmente legate l'una all'altra da poter essere considerata un'unica lezione).

Vorrei partire per l'occasione dal noto paradosso della nave di Teseo, la nave in legno del mitico eroe greco, mantenuta negli anni sostiuendo di volta in volta le parti deteriorate con nuove, uguali. Quando l'ultimo pezzo originale fu sostiuito, la nave era ancora identica alla nave di Teseo, ma non era più, materialmente, la stessa nave. Il paradosso verte su una questione ontologica (la nave dopo l'ultima sostituzione è o non è ancora la nave di Teseo? e se non lo è, quando ha smesso di esserlo?), ma a noi interessa solo come base per una problematica più sofisticata.

Dopo tutto, se la nave deve essere mantenuta in qualità operativa, perché non approfittarne per sfruttare il progredire delle scienze navali per migliorarla di volta in volta? Ovviamente, lasciando che ad ogni sostituzione, ad ogni aggiunta, ad ogni intervento il naviglio rimanga funzionante. E magari, secolo dopo secolo, la nave di Teseo si trasforma nel Pelican5.

Volendo, il processo potrebbe continuare, o prendere strade diverse, magari trasformando la nave in un mezzo anfibio, ed infine perfino in un veicolo terrestre, qualcosa di completamente diverso.

Quando non si scade nel CADT è proprio questo l'approcio con cui viene mantenuto e sviluppato il software: un progredire da uno stato al successivo, mantenendo costantemente (quanto possibile) la piena funzionalità; un mutare che potremmo definire organico per la sua somiglianza con i processi evolutivi noti in biologia (anche se nel caso del software è ovviamente più corretto parlare di Intelligent Design piuttosto che del classico evoluzionismo per selezione naturale).

È grazie a questo tipo di processi che certo software è sopravvisuto, funzionale, fino ai nostri tempi, pur avendo origini che risalgono ad una trentina d'anni fa (che in termini informatici sono tempi lunghissimi).

Ed è questa la prima ‘lezione’ che si può apprendere dal software: non a caso, i più profondi e duraturi mutamenti sociali, politici ed economici (pensiamo ad esempio alla nascita della borghesia, o al relativo svilupparsi del sistema capitalista, prima della sua formalizzazione ed istituzionalizzazione) sono spesso avvenuti in una maniera che potremmo ugualmente dire organica, senza soluzioni di continuità dai sistemi precedenti, piuttosto che imposti dopo la cesura netta di una rivoluzione (quando rivoluzioni ci sono state, esse sono piuttosto state a posteriori, per stabilire nuovi equilibri di potere all'interno dei nuovi sistemi).

Pur quando spontanei, questi mutamenti hanno incontrato resistenze anche violente da parte dei sistemi all'interno del quale si sono sviluppati, resistenze vinte anche con la violenza, ma in definitiva con l'abitudine, con il lento diffondersi delle nuove formæ mentis necessarie per accettarli. Un mutamento sociale, politico, economico si stabilizza, giunge a maturazione quando non è più considerato qualcosa di nuovo, ma “come le cose ci si aspetta che siano”, diventando così “invisibile” alla percezione quotidiana dei suoi utenti/implementatori, ovvero quando è accompagnato da un opportuno mutamento nella psicologia collettiva (predominante).

Questo, per inciso, ci dice qualcosa di più del (tutto sommato banale) fatto che per avere successo una rivoluzione deve avere l'appoggio della popolazione: ci dice che se le idee alla base della rivoluzione non sono già state assimilate dalla popolazione, la rivoluzione sarà di breve durata, riuscita magari soltanto per un elevatissimo grado di esasperazione raggiunto dalla popolazione, che però a mente fredda, finite le agitazioni, si ricorda di non amare le nuove idee più della precedente condizione (purché non esasperata). Ci dice che perché una rivoluzione abbia successo, e perché i suoi effetti permangano nel tempo (piuttosto che essere una valvola di sfogo per poi portare nel tempo ad un ritorno alla condizione precedente, in una sinusoide di esasperazioni, distruzioni, restaurazioni, esasperazioni), è necessario che le sue idee siano già diffuse —ed accettate— dalla popolazione prima che la rivoluzione avvenga.

La prima lezione ci dice quindi che le idee con maggiori garanzie di successo sono quelle che maturano e si diffondono gradualmente. La seconda lezione che il software può dare è strettamente legata a questo, ma può anche essere esposta in maniera indipendente.

Come detto sopra, per potersi affermare e maturare nella pratica, un'idea deve poter sopravvivere anche a condizioni avverse, come il software deve potersi interfacciare con una moltitudine di ambienti diversi, per poter essere utilizzato in una variegata gamma di situazioni.

Con questa prospettiva, ad esempio, le idee di Trotsky sulla impossibilità del socialismo di un solo Paese, per quanto possibilmente ben motivate pragmaticamente, davano allo stesso tempo al socialismo (o quanto meno alla sua idea di socialismo) una vena di immaturità: se il suo ideale poteva essere raggiunto solo se lo fosse stato da tutti contemporaneamente (o comunque in un breve lasso di tempo), diventava abbastanza evidente che tale ideale era, di fatto, irragiungibile.

Per contro, la possibilità di mettere in pratica un'idea anche in condizioni avverse è una forte indicazione di maturità, nonché un punto essenziale per almeno due ottime ragioni: la prima è che, molto banalmente, la sua messa in pratica funge da “banco di prova” per l'idea6; ed in più, l'implementazione circoscritta diventa la giusta piattaforma per la diffusione dell'idea stessa.

Vediamo più in dettaglio la prima delle ragioni.

Il passaggio dalla teoria alla pratica richiede un lavoro di tipo ingegneristico, dove le conoscenze sui meccanismi puri si devono scontrare con la natura grezza della realtà. Nello sviluppo di un prodotto, che sia un software o un oggetto fisico, il lavoro procede sempre per gradi: dai principî più astratti (le leggi della natura secondo la nostra conoscenza, i concetti fondamentali dell'informatica) si passa ad un tentativo di design astratto (un progetto o un algoritmo), seguito a sua volta da uno o più prototipi, fino a giungere alla creazione del prodotto finale.

Ciasuno di questi passaggi, dall'idea più astratta alla sua implementazione concreta destinata all'utenza finale, svela una nuova serie di effetti, di influenze inattese, di fenomeni sconosciuti o trascurati, che richiede spesso una ripetizione, un ritorno a fasi precedenti del progetto, affinché le nuove conoscenze acquisite sugli effetti della realtà sull'implementazione dell'idea possano essere presi in considerazione.

Questo graduale lavoro di raffinamento e maturazione, che procede inevitabilmente per tentativi ed errori, è esattamente quello che manca in buona parte dei grandi progetti rivoluzionari. Mettere in pratica “localmente” un diverso sistema sociale, politico o economico diventa così l'equivalente dello sviluppo del prototipo: non riuscirà a svelare tutti i problemi che si manifesterebbero in un'implementazione su larga scala, ma potrà già dare parecchie idee su quali ostacoli un'implementazione “definitiva” dovrà superare, su quali problemi (reali) non erano stati presi in considerazione negli iniziali, astratti, sviluppi dell'idea, nei dibattiti che magari avevano contribuito alla sua iniziale diffusione.

Il fallimento di un ‘prototipo’ del nuovo sistema non sarebbe necessariamente (quante volte lo ripeterò?) una prova dell'inadeguatezza dell'idea, ma sarebbe comunque una preziosa esperienza che nello sviluppo dell'idea dovrebbe essere presa in considerazione (perché l'implementazione ha fallito? cosa è stato fatto di sbagliato? cosa non era stato previsto?), a patto che l'analisi venga fatta con mente critica (e non quindi, ad esempio, sbarazzandocisi dell'esperienza negativa scaricando la colpa sulle condizioni avverse —anzi, il punto è proprio quello di far funzionare l'idea già in quelle condizioni, piuttosto che nelle condizioni ideali che gli si prepara nella mente).

Per contro (e si giunge così alla seconda ragione), il successo di un simile ‘prototipo’, soprattutto se in condizioni avverse (quindi contro la naturale resistenza di un sistema allo sviluppo di alternative), diventa già un'indicazione della bontà dell'idea stessa, nonché uno strumento utile per la sua diffusione. Una cosa è infatti dire «la mia proposta è migliore di ciò che abbiamo adesso, perché io penso che le cose andrebbero meglio» (semplicemente in base ad elucubrazioni mentali che magari sorvolano, per disattenzione o ottimismo, su come la realtà complicherebbe le cose), una cosa è poter dire «la mia proposta è migliore, e posso dirlo perché la vivo quotidianamente (nel mio ristretto ambito) e funziona bene».

Così il prototipo del nuovo sistema avrà occasione di estendersi dal condominio in cui vivo con i miei amici a quello dirimpetto, per poi diffondersi a poco a poco in tutto il quartiere, e così via. Con l'espandersi dell'influenza del prototipo, interverranno fattori di scala che nella piccola implementazione locale non erano significativi, ovvero perché, più banalmente, ciò che funzionava bene per me ed i miei amici potrebbe non funzionare ugualmente bene per qualcun altro: ed è qui che il filone di questa seconda lezione che si può imparare dal software (ma in realtà dall'ingegneria in generale) converge con il primo: i nuovi problemi che emergeranno con il fattore di scala non devono portare a cancellare tutto e ripartire, bensí ad aggiustare il nuovo, prototipale sistema per tenere conto delle nuove problematiche.

La crescita del nuovo sistema secondo queste righe è la chiave per una trasformazione che possa giungere a maturità, perché è un meccanismo che porta alla diffusione dell'idea, ed al suo riconoscimento, prima (e auspicabilmente anche senza) che il cambiamento diventi repentino e violento. Un sistema che non dovesse riuscire a diffondersi e a ‘prendere’ in questo modo, molto difficilmente avrebbe successo, su qualunque scala temporale, in un tentativo di imporlo con una violenta rivoluzione.

Beninteso, questa strategia è tutt'altro che semplice da seguire. Al contrario, direi che proprio per questa essa non viene, normalmente, seguita: il lavoro che richiede è ben più pesante, nonché duraturo nel tempo, e molto meno gratificante e soddisfacente del lavoro di concetto del pensare i nuovi sistemi, o del farne propaganda verbale, o del semplice criticare i sistemi esistenti.

È altresì beninteso che vi sono contesti sociali, politici ed economici in cui un approccio di questo genere è quasi inevitabilmente destinato ad una violenta e sanguinosa repressione: se è vero che nei contesti più fortunati basterebbe impostare la strategia nei termini meno (espressamente) antagonisti possibile nei confronti del sistema esistente, è anche vero che in altri contesti qualunque accenno ad un'alternativa viene soffocato nel silenzio quando non nel sangue7.

In altre parole, vi sono indubbiamente casi in cui una rivoluzione è necessaria già solo per avere la possibilità di costruire un'alternativa (persino nel software, con la sua posizione altamente privilegiata, vi sono casi in cui le riscritture si devono fare); ma l'errore di fondo è pensare che solo con una rivoluzione l'alternativa possa prendere il sopravvento: più spesso che non, questo diventa solo una scusa per non fare nulla per costruire l'alternativa in cui si dice di credere.

Un esempio: FLOSS

Un esempio molto interessante delle ‘rivoluzioni lente’ di cui ho parlato finora viene sempre dal software, ma ha interessanti implicazioni anche su società, politica ed economia.

Nello specifico, mi riferisco al software libero e all'open source, concetti messi in pratica con successo negli ultimi venti/trent'anni, e che hanno alle spalle anche movimenti fortemente ideologici.

Il movimento del software libero nasce con GNU e con la Free Software Foundation verso la metà degli anni '80. Specificamente, GNU nasce con l'obiettivo di creare un'alternativa libera a Unix. Per evitare ogni questione legale, i programmi GNU vengono scritti da zero, piuttosto che modificando software non-GNU equivalente.

Da poco prima, un'altra alternativa a Unix è in via di sviluppo presso l'università di Berkeley, in California, sotto una licenza (BSD, Berkeley Software Distribution) che permetteva il riutilizzo del codice anche in prodotti commerciali. Per contro, per il software GNU viene sviluppata una licenza specifica, la GPL, con lo scopo di garantire che ogni derivazione del software libero ed aperto rilasciato con quella licenza rimanesse ugualmente libero ed aperto.

È interessante qui vedere le differenze ideologiche tra i due approcci (BSD e GPL), nonostante entrambi, a modo loro, vogliano garantire ‘libertà’: nel primo caso, la libertà arriva fino a permettere derivazioni non libere, nel secondo si proibiscono le derivazioni non libere. In qualche modo, entrambe le licenze manifestano uno spirito libertario (formalizzato come richiesto dalla compatibilità con il contesto in cui sono nate), ma in maniera profondamente diversa l'una dall'altra.

Ma è solo con la nascita di Linux che il software libero e l'open source cominciano a diffondersi: se anche è vero che le questioni ideologiche hanno avuto un loro peso, è soprattutto la gratuità del software, e la sua resilienza agli attacchi informatici cui è soggetto il software commerciale dominante (sistema operativo ed applicativi della Microsoft) che gli permettono di diventare quasi una moda, se pure ‘da alternativi’.

Software il cui uso era fino ad allora rimasto principalmente tra le mani di sviluppatori (e quindi gente capace di ‘metterci le mani’ in caso di problemi, e che grazie alla natura aperta del software stesso ne aveva la possibilità) comincia così a diffondersi oltre l'ambito circoscritto di utenti selezionati, ed incontra i primi problemi: da un lato, la propria natura tecnica raramente adatta ad utenti per cui “internet è la e blu sullo schermo” (non erano ancora i tempi di Facebook), dall'altro la necessità dell'interoperabilità con l'ambiente (sempre più ostile) della monocultura dominante: poter scambiare file con utenti Microsoft Windows, poter leggere e scrivere documenti in Microsoft Office, a volte persino poter utilizzare programmi per Windows che in Linux non hanno equivalenti.

Ci sono voluti una ventina d'anni prima che il paziente lavoro di migliaia di persone giungesse a dare la possibilità a buona parte degli utenti non specializzati la possibilità di vivere senza Windows. Ovviamente, che questa possibilità sia sfruttata o meno è un altro discorso.

Se da un lato la possibilità di interoperabilità è offerta dagli sviluppatori di una variegata gamma di software (dal già citato Firefox per navigare in Internet all'ex-OpenOffice —ora LibreOffice— per i documenti, dal Samba con cui condividere file in rete con macchine Windows al Wine per eseguire programmi Windows all'interno di un sistema Linux), sul fronte della familiarità per l'utente il lavoro forse più significativo è stato svolto da Canonical con il famoso Ubuntu.

La storia di Linux e del software open source fino ad ora è un esempio brillante di come un graduale lavoro di sviluppo ed espansione può portare la novità da qualcosa di circoscritto a pochi intimi ad una diffusione quasi popolare (significativo l'esempio delle edicole, passate dall'offire la rivista di fumetti Linus quando si chiedeva una rivista su Linux all'offrire una rivista su Linux se non si specifica che per Linus si intende la rivista di fumetti), arrivando persino a minacciare l'enstablishment8.

Peraltro, anche se la questione ideologica non è stata principale nella sua diffusione (anzi, ha comportanto l'insorgere di non pochi ostacoli per la sua adozione in ambiti aziendali e governativi; anarchia e comunismo, in certe parti del mondo sono ancora parole minacciose: e cosa c'è di più anarco-comunista del software libero e dell'open source?), la diffusione del software ha portato una crescita dell'attenzione verso la possibilità di ottenere prodotti di grande qualità con approcci di tipo molto diverso da quelli del sistema economico predominante: il software libero e l'open source diventano la porta per una possibile trasformazione proprio di questo sistema.

È anche interessante notare però che gli stessi fautori della fase di maggiore espansione della diffusione del software libero hanno anche più recentemente commesso uno dei più grandi errori di cui si è parlato in questo articolo: gli ultimi passi compiuti da Canonical (ma anche da Gnome) in termini di interfaccia utente sono infatti l'esempio di come non si fanno le cose.

Spinti non si capisce bene se dalla voglia di emulare MacOSX o semplicemente dal desiderio di creare qualcosa di nuovo ed originale (dopo anni di accusa di “copiare” Microsoft, quando le interfacce diverse venivano disdegnate perché “non familiari” —una situazione dalla quale non si può uscire vincitori), sia Ubuntu con Unity sia Gnome con la nuova Gnome Shell hanno rivoluzionato l'interfaccia utente, imponendo la novità senza possibilità di (o richiedendo notevoli sforzi per) tornare a qualcosa di più familiare.

A prescindere dalla qualità del nuovo approccio per l'interfaccia grafica, le modalità con cui questa è stata imposta sono esattamente l'opposto di ciò che è opportuno per aiutarne la diffusione: la risposta tipica non è stata «ok, ormai c'è questo, adattiamoci», bensí «mamma che schifo, vediamo cosa posso fare per non averci nulla a che fare», con il risultato che la gente è corsa a cercare alternative più familiari, lasciando Gnome per KDE, o Ubuntu per Linux Mint.

Così Ubuntu e Gnome, diventati (per merito) sinonimi del Linux accessibile agli utenti meno smaliziati, con questa scelta e la conseguente necessità di cercare un'alternativa hanno forse inflitto alla possibilità di espandere ulteriormente la base utente il loro colpo più grave.

Un esempio: Humble Indie Bundle e Louis CK

Un altro esempio di idee che nel loro piccolo possono promettere grandi cambiamenti senza bisogno di imposizioni riguarda la vendita e la distribuzione di contenuti su Internet.

L'enstablishment in questo caso è formato dai grandi gruppi editoriali e dalle società che proteggono i loro interessi (associate nella SIAE in Italia, MPAA e RIAA negli Stati Uniti, e così via). Abituate (per ragioni storiche) ad un sostanziale monopolio sul controllo della produzione e della distribuzione su larga scala di contenuti, queste corporazioni (che mi piace definire collettivamente come mafia del copyright) sono arrivate nel nuovo millennio —dominato invece dall'infinita replicabilità delle “opere d'ingegno” e dalla possibilità di distribuirne le illimitate quantità in tempi ed a costi ridottissimi— senza riuscire ad accorgersi della irreversibilità della loro obsolescenza e dell'impossibilità di evitare la propria sostanziale inutilità a colpi di legiferazioni.

Eppure, la ‘guerra’ contro i loro abusi delle leggi sul diritto d'autore non verrà vinta con l'ormai endemica ed irreversibile (nonché impropriamente denominata) ‘pirateria’: infatti, la pura e semplice violazione delle leggi (per quanto assurde e ridicole) non fa altro che apportare giustificazioni argomentative (altrimenti dette scuse) al loro pervertirle, al loro forzarne altre (leggi che, peraltro, non riusciranno mai ad invertire l'ormai ben insediata psicologia che sta alla base della ‘pirateria’ stessa).

Invece, il vero cambiamento sarà guidato dallo sviluppo di piccole iniziative locali che riusciranno a dimostrare sfacciatamente come la pirateria stessa sia frutto (piuttosto che causa) degli abusi delle suddette corporazioni (dall'eccessività dei pezzi alle già menzionate assurde leggi).

La questione del prezzo è già stata messa profondamente in discussione da iniziative come il negozio online della Apple, seguita a breve dall'equivalente di Amazon nonché dal tentativo di emulazione di Google: ma queste iniziative spostano semplicemente il controllo dalle corporazioni attuali a pochi giganti che si presentano già da ora come le corporazioni future.

Molto più interessanti sono invece le iniziative di distribuzione diretta, la più recente delle quali è quella di Louis C.K., un famoso (negli Stati Uniti) comico che ha deciso di vendere online il proprio ultimo show direttamente dal proprio sito, all'insignificante prezzo di $5: un modico prezzo con il quale si può scaricare lo show per poterselo poi godere dove si preferisce, quando si preferisce, senza alcuna restrizione di sorta.

Secondo il terrorismo psicologico propugnato dalle attuali corporazioni dell'editoria, un'idea del genere sarebbe destinata al fallimento: quattro gatti l'avrebbero comprata, qualcuno di loro avrebbe messo il file online in una delle tante reti peer-to-peer, e tutti gli altri si sarebbero procurati il file da lì, lasciando il povero comico (e tutti quelli che hanno lavorato per lui allo show ed alla distribuzione del video) con un palmo di naso.

La realtà è stata ben diversa. Come il comico stesso ha modo di scrivere, nel giro di 12 ore i costi dell'iniziativa erano stati pienamente recuperati, con profitti pari alle spese iniziali raggiunti appena quattro giorni dal lancio dell'iniziativa. Nel giro di due settimane l'iniziativa ha passato il milione di dollari, che l'artista ha variamente distribuito per coprire le spese iniziali, dare un bonus al proprio staff, donare ad un po' di charities, lasciando il restate (al momento della ‘spartizione’, meno di un quarto del milione e passa di dollari) per sé.

Per inciso, il video è disponibile sulle reti peer-to-peer (basta ad esempio cercare il nome dello show su un qualunque motore di ricerca per torrent), ed è condiviso da non poca gente, ma questo non ha impedito al comico di farci un buon guadagno. Gli unici ad averci perso, con questo tipo di iniziativa, sono esattamente i grandi distributori, le corporazioni tanto accanite nel difendere il vecchio sistema che ne giustifica l'esistenza.

Un precedente tentativo in una direzione del genere era stato fatto dai Radiohead per il loro album In Rainbows, il primo dei loro album a seguire la fine del loro contratto con EMI: per qualche mese, l'album fu reso disponibile con la strategia del pay what you want: il cliente poteva scegliere il prezzo (anche eventualmente nullo), e scaricare le canzoni dell'album in formato MP3. Dopo la pubblicazione del supporto fisico, però, l'iniziativa fu terminata.

L'idea del pay what you want è un'idea che sta prendedo piede soprattutto tra gli sviluppatori indipendenti, programmatori che sviluppano (tipicamente) giochi senza essere legati a nessuna grande azienda. La vendita e distribuzione di questio giochi è sia diretta sia per tramite di alcune grosse piattaforme di distribuzione (come Steam o Desura).

In occasione del primo ‘compleanno’ del gioco, lo sviluppatore del gioco World of Goo ha deciso di offrire il software, normalmente venuto a $20, con libera scelta del prezzo per una decina di giorni. L'esperimento è stato valutato dallo stesso autore un enorme successo.

Proprio l'esperienza di World of Goo è stata l'ispiratrice dell'Humble Bundle, un'iniziativa che da poco più di un anno distribuisce periodicamente raccolte di giochi di sviluppatori indipendenti, al prezzo scelto dall'utente. I risultati sono molto interessanti: i pacchetti raggiungono le migliaia di vendite nel giro di pochi giorni, con introiti lordi che si aggirano sul milione, milione e mezzo di dollari (in media). Questi soldi vengono poi distribuiti tra gli sviluppatori dei giochi e, secondo proporzioni scelte sempre dal compratore, ad alcune associazioni senza scopo di lucro ed agli organizzatori del sito stesso.

Il dato più interessante nelle vendite degli Humble Bundle è forse quello che riguarda la distribuzione del numero di vendite per piattaforma (anche se il compratore può scaricare i giochi così acquistati per tutte le piattaforme: Windows, MacOSX e Linux, ha la possibilità di ‘identificare’ quale piattaforma andrà contata a fini statistici) e la distribuzione del contributo medio per piattaforma.

Risulta infatti che le vendite sono in larga misura (oltre il 50%) per Windows, con il restante 50% diviso in parti grosso modo uguali tra Linux e Mac; ma soprattutto risulta che gli utenti Linux sono i più ‘generosi’ nella scelta del contributo (con una media sopra i $10) seguiti dagli utenti Mac (media appena sopra i $5), lasciando gli utenti Windows tra i più micragnosi (media di $4 e cocci): paradossalmente, la gente più abituata ad avere legalmente software gratis è quella disposta a pagare di più per avere altro software (sempre legalmente), laddove gli utenti Windows, per i quali nella maggior parte dei casi software gratis significa anche software ottenuto illegalmente, sono meno predisposti al pagamento.


I mutamenti più significativi e duraturi non avvengono con una rivoluzione violenta, ma con la graduale maturazione della psicologia della gente. I bruschi cambiamenti di direzione, in un sistema sociale, politico o economico come nel mondo dell'informatica, non possono arrivare molto lontano: nascendo dal desiderio di cambiamento senza la maturità di affrontare a fondo i dettagli pratici delle nuove idee, si ritrovano facilmente ad affrontare gli stessi medesimi problemi che si sperava di cancellare con un ‘nuovo inizio’.

Sempre dal mondo del software si possono imparare lezioni importanti su come procedere per creare e far maturare nuovi sistemi, con quella gradualità che è necessaria sia per il raffinamento del sistema stesso, sia perché la novità possa essere assimilata dalla psicologia collettiva.

Sebbene vi siano indiscutibilmente casi in cui una rivoluzione, una tabula rasa siano necessari perché si possa procedere anche solo con gli iniziali prototipi del nuovo, troppo spesso la foga rivoluzionaria nasconde solo un'adolescenziale superficialità ed uno scarso interesse verso il faticoso e poco gratificante labor limæ che costituisce la vera ossatura della messa in pratica di qualunque idea.

  1. Alle estreme consequenze, questo comporta che un'ideologia che sia fondata su questi principî (sopraffazione, abuso, violenza, avidità, odio, etc) avrebbe molte più speranze di successo di una fondata su principî quali l'eguaglianza, la libertà, la solidarietà, ed indisponbile ai compromessi che la vita reale richiede. ↩

  2. rivoluzioni che volendo riportare ad uno stato precedente (anche se non troppo) hanno comunque un sapore reazionario: si può essere progressisti solo una volta. ↩

  3. e dopo tutto, cos'era la GRC se non un atto di ripicca di Mao per la propria perdita di potere? ↩

  4. La cosa è talmente vera che per il software commerciale capita che vengano fatte modifiche estetiche all'interfaccia, senza alcuna motivazione funzionale, solo per giustificare la vendita di una nuova versione le cui vere, sostanziali differenze rispetto alla precedente sono altrimenti invisibili agli utenti. ↩

  5. Il galeone di sir Francis Drake, dallo stesso poi rinominato in Golden Hinde dopo l'attraversamento dello Stretto di Magellano durante la circumnavigazione del globo. ↩

  6. con l'immancabile caveat, già menzionato, che il fallimento di una implementazione (o anche di innumerevoli implementazioni) non implica in alcun modo che l'idea in sé sia fallimentare. ↩

  7. E questo contro l'opinione diffusa in certi ambienti secondo i quali situazioni come quella della Russia —dove il solo parlare di omosessualità o transessualità può essere pericoloso— sono sostanzialmente equivalenti, in termini di oppressione, ad una Spagna dove i matrimoni omosessuali sono legalmente riconosciuti. ↩

  8. Famose in tal senso le campagne con cui la Microsoft negava di temere il progresso di Linux, poi rivelate false dai memoranda interni noti come Halloween Documents, il primo dei quali è già del 1998, e gli ultimi dei quali rivelano le strategie infide ed al limite della legalità adottate dalla Microsoft per contrastare ad ogni livello possibile la diffusione di Linux. ↩

Reazioni, rivoluzioni, mutamenti

Rivoluzioni, crisi, disagi, malesseri globali ed individuali. Si vivono tempi interessanti, e ciascuno reagisce secondo la propria indole e la propria cultura.

La principale divisione è tra chi vive crisi e disastri sulla propria pelle e chi invece, lungi dall'esserne colpito direttamente, vi vede essenzialmente occasioni di profitto personale, modi per accrescere il proprio potere o il proprio patrimonio. Per capirci, da un lato i terremotati dell'Aquila (dopo anni ancora in mezzo alle macerie), dall'altro gli imprenditori che gongolano all'idea dei ricchi appalti per la ricostruzione o i politicchi che sifonano i fondi per la ricostruzione per altre misere e miserabili iniziative.

Non necessariamente chi profitta su o approfitta di crisi e disastri ne è responsabile, anche se spesso e volentieri, intenzionalmente o meno, contribuisce ad amplificarne la portata ed il danno, come zecche o altri parassiti su un corpo già debilitato. Per gli altri, quelli che crisi e disastri li subiscono e coloro che ne vivono comunque (per etica, cultura o indole) la forza negativa, le reazioni si possono raccogliere in quattro categorie con caratteristiche ben definite, anche se raramente riscontrate in forma pura.

La prima categoria è quella passiva, in cui manca una vera e propria (re)azione: si opta per il non fare nulla per contrastare l'onda di marea, ci si lascia trasportare dove capita, si lascia agli altri l'iniziativa dell'intervento.

Le (mancate) reazioni, da individuo ad individuo, spaziano le varie possibili combinazioni di alcuni tipi fondamentali: dal negazionista (“non c'è nessun problema”) allo struzzo (“se non guardo il problema, non c'è”), dal fatalista (“è il Destino che compie la sua opera, è la volontà di Dio”) allo schizofrenico (“il mondo è una merda, ma nel castello in aria in cui mi sono rifugiato prospero felice”).

È una categoria che subisce e non agisce, ed in quanto tale dà poco fastidio a chi sulle crisi prospera, e aiuta molto a fare numero, opportunamente manipolata con grida d'allarme o suadenti rassicurazioni, secondo il caso, servendo anche da ostacolo inerte contro le categorie più attive.

La seconda categoria è quella analitica, di chi studia i problemi per determinarne le cause e possibilmente proporre soluzioni. Secondo la cultura e le capacità intellettive, costoro possono arrivare molto a fondo alle questioni, e molto lontano con le proposte; ma finché lavorano di concetto rischiano ad ogni passo di scadere nella sega mentale, senza giungere a nulla di concreto.

È una categoria che può dare fastidio a chi sulle crisi prospera, ma solo nella misura in cui riesce a far sentire la propria voce, ed in particolar modo a raggiungere e farsi comprendere e riconoscere dalle altre categorie.

La terza categoria è quella impulsiva: non importa come si reagisca, purché lo si faccia. Mi morde una zanzara? Tiro uno schiaffo a chi mi dorme accanto. Scoppia un incendio? Ci butto sopra il primo liquido che mi capita sotto mano.

È una categoria facilmente manipolabile, poiché basta offrirle pretesti, scuse, capri espiatori, spauracchi per farla muovere nella direzione voluta. Non è infatti dedita alla riflessione, né seriamente intenzionata a cambiare la propria situazione: accetta volentieri la prima occasione di sfogo che gli viene proposta, ed ancor meglio se richiede poco sforzo fisico o mentale. Cacciamo gli ebrei, gli immigrati, gli omosessuali; protestiamo contro la Chiesa, il governo, le multinazionali; piove, governo ladro.

La quarta categoria è quella operativa: è seriamente intenzionata a rimboccarsi le maniche e sudare sangue per cambiare le cose, o provare almeno a contenere e limitare i danni. È quella che può riuscire dove gli analitici si perdono, è quella che può attuare la soluzione, costruire l'alternativa. È anche quella che, quando non riesce a raggiungere quella massa critica per cui i suoi sforzi possano effettivamente portare il cambiamento voluto, rimane schiacciata dalle forze che cerca di contrastare.

Senza l'impulsività della terza categoria, è più difficile da manipolare; ma il suo stesso spirito di sacrificio ne riduce facilmente i numeri, per incidenti (casuali o causati), fuoco nemico, errore umano (o fuoco più o meno amico).

Forse per questo, forse perché la natura preferisce le vie di minima energia (la prima), forse perché un qualunque sfogo allo stress (la terza) è più semplice che cercarne la radice (seconda) ed estirparla (quarta), le categorie più diffuse sono anche quelle meno utili al vero cambiamento.

Ed è forse per questo che i grandi cambiamenti raramente prendono stabilmente piede in occasione di rivoluzioni, crisi, disastri; se anche drastici mutamenti possono avvenire in tali momenti, infatti, questi vengono presto riassorbiti, con un nuovo status quo che solo formalmente (e non sempre), e raramente (se mai) sostanzialmente, differisce dal precedente il mutamento. È in questo, con grande probabilità, che trova radice quella forma di ciclicità della storia che vede il replicarsi, in tempi e spazi diversi, di periodi e momenti che seguono modelli ben precisi.

Lo scoppiare di una rivoluzione, l'avvento di una crisi, sono infatti una molla di breve durata. Passata l'emergenza, si spegne con essa il fuoco che alimentava il cambiamento, e l'interesse ad operare su larga scala rimane nelle mani di pochi. Di questi, quelli che mantengono un potere sufficiente ad attuare cambiamenti su scala più vasta sono generalmente più interessati ad un ritorno alle condizioni pre-crisi, avendo magari rimpiazzato chi durante la rivoluzione ha perso il posto in cima alla piramide sociale.

I mutamenti più profondi e duraturi sono invece quelli che maturano lentamente, partendo da molto lontano, sostituendosi progressivamente, spesso senza soluzione di continuità, a ciò che li precede. Tali processi di cambiamento sono molto più difficili da contrastare, da un lato perché difficili da percepire finché la loro portata è talmente visibile da essere ormai inarrestabile1, dall'altro perché la più lenta maturazione dà loro il tempo di venir assorbiti nel modo di pensare delle nuove generazioni, fino ad assumere quella natura di normalità che fa sì che essi siano ciò verso cui gli atteggiamenti dei più tendano a tornare.

Perché non si riesce quindi ad infrangere questo periodico ripetersi di progressi e regressi, di rivoluzioni e restaurazioni? Anche dopo anni di mutamenti in direzioni ben precise ci si ritrova, inevitabilmente, in un riflusso che riporta, incontrastato, a condizinoi sociali ed economiche che immancabilmente degenerano in crisi più o meno violente; se la tempistica cambia, è solo nella frequenza del riproporsi dei momenti storici.

Eppure i modelli sociali, politici, economici, culturali non sono poi così vari, oltre quel velo di formalità che ne moltiplica i numeri: e da questa sostanziale identificazione non è poi così difficile prevedere l'approssimarsi di un riflusso, se pure si può errare sulla tempistica. Cosa manca allora perché si riescano a gettare per tempo quelle basi da cui dovrebbe maturare, con la dovuta lentezza, quel cambiamento più radicale che aiuterebbe a smussare la violenza delle oscillazioni delle andate e dei ritorni, magari fino ad estinguerle?

Mancano le idee? Mancano le persone? Manca la capacità di comunicare, di persuadere, di educare, di raggiungere massa critica? O vi sono dei limiti intrinseci nella natura dell'homo sapiens, magari frutto di millenni di evoluzione, e che quindi richiederebbero altrettanti millenni per essere spostati?

La cosa che sorprende non è infatti che a cadere nella trappola del ripetersi dei modelli storici siano popoli, dai quali non è difficile aspettarceselo (le masse sono infatti principalmente della prima e della terza categoria, con scarso interesse a conoscere, capire, ricordare, agire), ma che a farlo sia chi gestisce il potere: è tanto difficile ricordarsi che, reali o metaforici, una Place de la Révolution o un Piazzale Loreto non si negano a nessuno?

O forse è solo questione di classe

  1. per questo il controllo dell'informazione nelle dittature raggiunge punti di devastante crudeltà contro chiunque propugni idee contrarie all'interesse del potere; occorre agire subito per estirpare le idee prima che abbiano il tempo di attecchire. ↩

Scienza, conoscenza, tecnologia

L'abuso dei termini della sfera semantica della scienza, nonché la frequente confusione dei relativi concetti con altri appartenenti ad aree vicine ma distinte di conoscenza, ha conseguenze abbastanza deleterie sulla percezione comune della scienza, con fraintendimenti che vanno dal tipo di conoscenza che essa costituisce alle forme in cui può esprimerla, dalla sua validità ai suoi campi di competenza.

Qualche chiarimento mi sembra sia d'uopo, con particolare evidenza ai seguenti temi:

Fenomena e trascendenza

Dal significato primitivo di raccolta più o meno sistematica, più o meno completa e più o meno strutturata di conoscenze su uno o più specifici campi, il termine ‘scienza’ si è andato specializzando sia in termini di oggetto della conoscenza, sia in termini di metodo.

Il primo passo di questa maturazione è stata la separazione dello studio dei fenomeni, ovvero di ciò che è osservabile, dalle altre forme di conoscenza. Nella conseguente distinzione tra φυσική (ciò che riguarda la natura) e metafisica, la scienza si separa dalla religione come dalla filosofia e comincia ad assumere quel carattere di verificabilità che dapprima implicito maturerà fino a diventarne la metodologia caratteristica, per venire infine sostituito da Popper con un concetto ancora più forte.

La scienza si distingue così dalle forme di conoscenza che derivano puramente da intuizioni trascendenti, da seghe mentali o da accurate mire dominatrici, generando un interessante paradosso.

Le altre forme di sapere fondano infatti le proprie radici su principî dogmatici, sulla forza dell'auctoritas, sull'ipse dixit, nonché sulla distinzione tra esoterico ed essoterico, tra iniziato e profano; non a caso maturano principalmente in ambienti conservatori e reazionari, che vi basano la propria forza facendo leva sull'impossibilità di validarne oggettivamente le fondamenta. La scienza, per contro, cresce e matura sulla propria oggettiva verificabilità, anzi sulla propria stessa falsificazione, sulla scoperta dei limiti del vecchio e sul loro superamento nel nuovo.

E così il paradosso: ciò che non è oggettivamente validabile ha pretese di verità assoluta (nonché ovviamente incontrovertibile ed immutabile), anche quando palesemente in contrasto con altre, diverse verità pretendenti uguali titoli, mentre ciò che validabile è, e che pertanto maggiormente potrebbe aspirare a verità, prospera sul dubbio e sul proprio superamento.

La matematica come modello del sapere perfetto

La frattura che separa le due forme di conoscenza è sostanzialmente invalicabile. L'unico ponte, se mai tale può essere considerato, è dato senza dubbio dalla matematica. Essa nasce, come le altre scienze, dallo studio della realtà osservabile; ma qualche millennio prima degli ‘esperimenti ideali’ di Galileo, in matematica si scopre la potenza dell'astrazione, ma anche del rigore formale e del linguaggio incorrutibile della logica.

La matematica è forse l'unico ramo del sapere umano ad avere generato verità incontenstabili, pur avendo un'età paragonabile quando non superiore a quella di altre forme di sapere più e meno astratte. Si sono, è pur vero, verificati casi in cui la distrazione dello studioso, l'errore umano hanno portato alla luce asserzioni fragili quando non platealmente false, ma la potenza del rigore formale della matematica è sempre stata tale che l'autore stesso dell'errore si è sempre potuto rendere conto dell'errore compiuto, per rivolgersi quindi nuovamente allo studio senza arroccarsi negli sciocchi fanatismi che hanno pervaso e spesso tuttora pervadono le forme non scientifiche della conoscenza, quando messe a confronto con la propria incompatibilità con altre verità.

Dalla propria storia, la matematica ha imparato che le proprie affermazioni, se pure incontrovertibilmente vere, non possono dirsi assolute. A posteriori, ciò potrebbe sembrare ovvio, giacché esse discendono, in maniera rigorosa, da una selezione, in una certa misura arbitraria, di asserzioni (assiomi o postulati) che si suppongono vere senza spiegazione all'interno del sistema formale che da esse deriverà.

L'esempio più plateale in questo senso è certamente quello della geometria, una delle branche più antiche della matematica (seconda forse solo all'aritmetica): formalizzata da Euclide, si trovò fin da subito davanti al problema del famoso ‘quinto postulato’, equivalente all'affermazione che da ogni punto esterno ad una retta passa una ed una sola parallela alla retta stessa.

Il postulato, che nella formulazione originale era alquanto più complesso ed in quanto tale anche molto sgradevole, non piaceva nemmeno al suo stesso autore, che cercò di usarlo il più tardi possibile nella propria esaustiva esposizione della geometria (generando così i 28 teoremi che sono noti come ‘geometria assoluta’, poiché veri anche nelle geometrie non euclidee).

Il problema del quinto postulato ha ossessionato per secoli i matematici, che hanno cercato di dimostrarlo partendo dagli altri postulati della geometria; nel fallire questo obiettivo, sono però riusciti a semplificarlo (arrivando alla sua formulazione moderna) ed a dimostrare che era indipendente dagli altri (e quindi meritevole dello status di postulato).

Un approccio spesso tentato per dimostrare il quinto postulato è stato quello della reductio ad absurdum: tentare di giungere a conclusioni ‘assurde’ partendo dalla negazione del quinto postulato, anzi dalle sue negazioni, giacché il quinto postulato può essere negato sia affermando che non esistono parallele sia affermando che ne esistono più d'una.

Ma i matematici che hanno intrapreso questa strada sono arrivati al più, come scrive ad esempio Saccheri, ad affermazioni che «ripugna(no) alla natura della linea retta», trovandosi così a scontrarsi con quel tipo di ostacolo che l'aritmetica ebbe con l'introduzione dei numeri negativi, e che l'algebra avrebbe poi avuto con l'introduzione dei numeri immaginari: pur senza riuscire a cadere in un assurdo logico, le nuove idee risultavano indigeste perché incompatibili con il concetto che il matematico aveva dell'astratta idea di cui trattava.

Il superamento di queste incompatibilità, sempre mentali dello studioso e mai strutturali nelle teorie matematiche, hanno permesso lo sviluppo di alcuni dei più potenti ed affascinanti strumenti matematici, dalle geometrie non euclidee all'analisi complessa.

La matematica ha inoltre sempre trovato un organico equilibrio tra sistemi formali anche diversi: se pure la geometria euclidea, quella iperbolica e quella sferica, ad esempio, non possono essere valide nello stesso spazio, è anche vero che il cerchio privo di circonferenza della geometria euclidea è un modello della geometria iperbolica, così come la superficie sferica nello spazio euclideo è appunto un modello della geometria sferica.

D'altra parte, soprattutto in tempi più recenti (almeno relativamente alla lunghissima storia della matematica), rami interi della matematica si sono sviluppati partendo da curiosità astratte o come puri esercizi mentali. Nonostante ciò, di essi si sono poi trovate sorprendenti applicazioni anche nel mondo reale.

La matematica rappresenta così l'unico modello di sapere veritiero ed incorruttibile, che cresce ed evolve senza però mai cancellare o negare il proprio passato, e riuscendo ugualmente a toccare la sponda fenomenica e quella metafisica del sapere; essa è pertanto la forma più alta di conoscenza. Non a caso i più pretenziosi sistemi filosifici aspirano a raggiungerne il sistematico rigore, e non a caso la scienza ne ha fatto il proprio linguaggio.

I tre gradi della conoscenza scientifica

on fait la science avec des faits comme une maison avec des pierres ; mais une accumulation de faits n'est pas plus une science qu'un tas de pierres n'est une maison

si fa scienza con i fatti come una casa con le pietre; ma un cumulo di fatti non è più scienza di quanto un cumulo di pietre non sia una casa

Henri Poincaré, La science et l'hypothèse, Ch. IX

Poiché la scienza ha come oggetto i fenomeni, ovvero ciò che è osservabile, è abbastanza ovvio che il primo passo verso la conoscenza scientifica sia l'osservazione, la raccolta del dato.

Se semplici considerazioni qualitative possono andar bene come punti di partenza, è l'accumulare minuzioso di dati e la loro metodica sistemazione a preparare le basi informative di quella che può essere la conoscenza scientifica. Esempi dell'importanza della catalogazione sistematica si trovano in chimica (Mendeleev, l'autore della famosa Tavola periodica, poté dedurre le proprietà di elementi chimici non ancora scoperti semplicemente in base alla loro posizione), come in astronomia, una scienza molto interessante come esempio del procedere della conoscenza scientifica.

In un periodo in cui il dibattito sulla centralità del sole piuttosto che dei pianeti era in pieno fervore (e non mancava di rischi), il più grande contributo di Tycho Brahe al progresso della scienza non fu la sua proposta del modello ticonico (con i pianeti che giravano attorno al sole che girava attorno alla Terra), bensì le innumerevoli misure, gli innumerevoli dati raccolti con una precisione fino ad allora inaudita (e per giunta senza l'ausilio del telescopio).

Furono proprio queste osservazioni a permettere1 a Keplero di formulare le sue famose Leggi di Keplero, ovvero il modello che, con ottima approssimazione, descrive effettivamente il moto dei pianeti nel sistema solare: approssimazione talmente buona che furono proprio le divergenze dei moti dei pianeti dal loro ideale che permisero secoli dopo la scoperta dei pianeti più esterni.

Le leggi di Keplero sono un esempio del secondo grado della conoscenza scientifica: un modello che descriva come i dati sono legati tra loro, ma non perché siano legati da quella particolare legge.

È in questa fase che la matematica diventa strumento fondamentale della scienza, con la propria capacità di descrivere in astratto relazioni tra quantità numeriche. Le leggi di Keplero permettono così di esprimere le proprietà fondamentali del moto dei pianeti in termini di semplici figure geometriche e formule matematiche.

Ma la scienza vera e propria comincia solo nella terza fase del suo progresso, quando dai come si passa ai perché; l'astronomia, ad esempio, matura in questa direzione quando i progressi della meccanica, dalla legge di gravitazione universale alla conservazione della quantità di moto, permetteranno di motivare le relazioni tra raggi vettori, aree, velocità e tempi scoperte da Keplero.

Beninteso, in questa terza fase la scienza entra anche nel pericoloso campo del regresso all'infinito: per ogni “perché?” cui si trova risposta ne nascono almeno altrettanti nuovi la cui risposta va nuovamente cercata.

Perché i corpi si attraggono con forza proporzionale alla massa ed inversamente proporzionale al quadrato della distanza? Perché un corpo non soggetto a forze permane nel suo stato di quïete o di moto rettilineo uniforme?

Anche le scienze arrivano quindi ad essere limitate da postulati, da modelli primitivi che non vengono spiegati da altri modelli. Questi postulati, questi assiomi definiscono i limiti della nostra conoscenza scientifica. Si può anzi dire, di più, che il superamento di questi limiti caratterizza lo spirito scientifico: la ricerca di spiegazioni sempre più complete, sempre più dettagliate, che scendano sempre più in profondità nell'indagine sulle cause ed i modi dei fenomeni: a patto, ovviamente, che questa indagine venga condotta secondo quelle modalità specifiche che, come già menzionato all'inizio, costituiscono il secondo pilastro che distingue la conoscenza scientifica da altre forme di sapere.

La sperimentazione come base della conoscenza scientifica

Fino alla prima metà del ventesimo secolo, il concetto di scienza (modernamente intesa) era fondato sulla verificabilità, la oggettiva riproducibilità degli esperimenti o delle osservazioni che avessero ispirato la teoria e contro i quali e contro le quali la teoria stessa potesse venir messa alla prova. Una verifica che riproducibilmente fallisse invaliderebbe la teoria.

Questo è esposto in maniera alquanto semplice ed elegante in questo articolo di Chris Wenham, sfortunatamente sparito da Internet salvo che per la copia su webarchive. L'articolo chiarisce lo spirito del progresso della conoscenza scientifica paragonando la scienza ad un gioco da tavola con le seguenti semplici regole:

  1. lo scopo del gioco è raggiungere l'altro lato del piano di gioco
  2. il piano di gioco è diviso in quadrati, ma non si sa quante caselle sia lungo o largo
  3. ci si può spostare su una casella solo se è coperta da una tessera; ci si può spostare su qualunque tessera, anche quelle fatte da altri giocatori
  4. se ci si sposta su una casella vuota, o se la tessera su cui si è viene rotta, si ‘cade in acqua’ e bisogna nuotare verso la tessera più vicina
  5. ogni casella vuota che confina con una tessera o con il bordo iniziale del piano di gioco contiene una domanda. Le domande sono semplici ed hanno risposte univoche; tipo: “perché l'acqua scorre verso il basso?” or “perché la luce attraversa il vetro?” o “cos'è il calore?”
  6. l'unico modo per costruire tessere è di rispondere alla domanda
  7. una tessera può galleggiare solo se può essere verificata con un esperimento riproducibile
  8. una tessera può essere rotta solo dimostrando che la risposta è sbagliata con un esperimento riproducibile
  9. un esperimento non può rompere una tessera a meno che non possa essere riprodotto, una tessera non può galleggiare se l'esperimento che la verifica non può essere riprodotto
  10. se una tessera si rompe, si rompono anche tutte le tessere a essa collegate che non sono anche collegate al bordo del piano di gioco attraverso altre tessere integre

Per comprendere il potenziale limite di questa formulazione, supponiamo che invece che di scienza si parli di matematica, e prendiamo come esempio la domanda “È vero che tutti i numeri dispari maggiori di 2 sono primi?”.

Supponiamo che un giocatore voglia costruire una tessera sulla casella corrispondente, rispondendo «sì». Per poter fare ciò deve proporre un esperimento riproducibile che verifichi la correttezza della risposta. Il giocatore in questione propone come esperimenti di verifica i numeri 3, 5, 7, 11, 13, 17, 19, 23, 31. La tessera galleggia. Un altro giocatore propone l'esperimento con il numero 9 (o 15 o 21), che ovviamente fallisce e demolisce la tessera.

In effetti, la tessera rotta può essere sostituita con una nuova tessera, che risponde «no» alla domanda; la nuova tessera regge (nel caso di domande/risposte di questo tipo, basta un controesempio per poter accettare ‘no’ come risposta).

Prendiamo ora come esempio la congettura di Collatz. Partendo da un numero intero qualunque, se è pari lo si divida per due, se è dispari lo si moltiplichi per 3 e si aggiunga 1; si ripeta l'operazione con il nuovo numero ottenuto (ad esempio, partendo da 6, si ottiene 3, poi 10, poi 5, poi 16, poi 8, 4, 2 ed infine 1). La congettura di Collatz chiede: è vero che da qualunque numero si parta si finisce sempre con l'arrivare ad 1?

La congettura è stata verificata fino a qualche miliardo di miliardi di numeri, e non è stato trovato alcun controesempio. Considerando le regole della scienza suesposte, la risposta ‘sì’ alla congettura è scientificamente corretta.

Nella sua Logica della scoperta scientifica, Karl Popper osserva come la semplice verificabilità sia una caratterizzazione troppo debole della conoscenza scientifica. Popper propone quindi, come caratteristica propria delle teorie scientifiche la loro falsificabilità, ovvero la possibilità di concepire un esperimento il cui fallimento invaliderebbe le teorie stesse: ciò che distingue il sapere scientifico è quindi la sua potenziale fragilità, la possibilità che esso possa non essere vero.

È interessante notare come anche con una prospettiva popperiana la congettura di Collatz sia comunque scientificamente valida: basterebbe infatti un controesempio per falsificarla, e tutti gli esperimenti svolti finora l'hanno invece confermata. Il sapere scientifico è quindi molto diverso da quello matematico: il secondo accetta qualcosa come vera solo dopo che essa venga dimostrata a rigore di logica partendo da premesse la cui verità sia già stata accertata; il primo accetta qualcosa come vera finché essa non venga dimostrata falsa (e secondo Popper, solo a condizione che essa possa, potenzialmente, essere dimostrata falsa).

Buona parte del lavoro dello scienziato consiste quindi (o dovrebbe consistere) nel concepire nuovi esperimenti il cui fallimento dimostrerebbe la falsità di una teoria, di un modello. (L'altra parte del lavoro consiste nello sviluppare teorie e modelli che tengano conto dei risultati degli esperimenti che sono riusciti nell'intento di falsificare teorie e modelli precedenti.)

In realtà, la falsificazione di una teoria scientifica non implica necessariamente un integrale rigetto; è infatti possibile, soprattutto nel caso di teorie che abbiano già raggiunto una certa maturità, che la loro falsificazione venga ridimensionata in quello che possiamo definire limite di applicabilità.

Quando ad esempio l'esperimento di Michelson-Morley ha invalidato la cosiddetta relatività galileiana, e con essa l'intera meccanica classica, aprendo così le porte alla teoria della relatività ristretta di Einstein, le teorie scientifiche falsificate non sono semplicemente svanite: vengono tuttora applicate quotidianamente, pur con la coscienza della loro erroneità, perché nelle condizioni in cui vengono applicate (dimensioni spaziali non subatomiche, velocità abbondantemente subluminali) esse rimangono comunque un'eccellente approssimazione delle teorie attualmente valide (ovvero finora non falsificate).

Scienza e protoscienza

Viene abbastanza naturale parlare di maturità di una scienza in base al grado di profondità cui arrivano i modelli che ne costituiscono l'ossatura. Nelle primissime fasi, quando la larga parte della conoscenza è costituita da dati sperimentali e relazioni derivate dall'osservazione e dall'esperienza piuttosto che da modelli più astratti, sarebbe più opportuno parlare di protoscienza, piuttosto che di scienza vera e propria.

Queste forme meno mature di conoscenza fenomenica sono caratterizzate da modelli superficiali, in cui le relazioni causali sono lacunose se non del tutto assenti. La loro capacità predittiva è estremamente limitata, e generalmente manca del determinismo tipico delle forme più mature di conoscenza; un approccio più probabilistico o statisto permette infatti di esprimere l'incertezza sulle relazioni tra aspetti noti del fenomeno studiato, o l'ignoranza degli aspetti che sarebbero determinanti.

Proprio questa fragilità e questa indeterminazione nei modelli proposti sottrae a queste forme di conoscenza la possibilità di essere classificate come ‘scienza’ nel senso popperiano del termine: la loro debolezza predittiva ne rende infatti impossibile la falsificabilità. La stessa verificabilità, condizione comunque imprescindibile per le teorie scientifiche, ne è indebolita.

Pertanto, le conoscenze protoscientifiche sono meno affidabili di quelle di scienze più mature. Esse sono tuttavia non meno importanti, esprimendo comunque, volta per volta, il grado più alto di conoscenza di quel particolare fenomeno; in quanto tale, esse sono comunque la base da cui partire sia per il progresso della conoscenza dei relativi fenomeni verso forme più mature e più proprie di scienza sia, con le dovute cautele, per lo sfruttamento della conoscenza nelle applicazioni del caso.

Scienza e tecnologia

Le prime fasi della conoscenza scientifica, ovvero la raccolta del dato e di semplici relazioni derivate principalmente dall'osservazione e dall'esperienza più che da modelli più astratti costituiscono anche le basi di un approccio alla conoscenza che a me piace definire ingegneristico.

Essa è la base della tecnica, intesa nel senso etimologico che la fa derivare dalla τεχνή greca, ovverossia anche di quelle arti e mestieri che nei primi secoli del secondo millennio si riunivano in gilde e corporazioni.

È una conoscenza di tipo sensibile, e che pur non potendosi definire propriamente scientifica, sta comunque dallo stesso lato della scienza nella frattura di cui si è discusso sopra. Anzi, per molti versi è persino più vicina ai fenomeni che non la scienza, le cui aspirazioni formali tendono a sollevarla verso schemi più astratti.

Ciò che distingue la conoscenza scientifica da quella ingegneristica è principalmente l'obiettivo, e per conseguenza anche il metodo. La scienza si prefigge infatti di giungere alla comprensione delle leggi fondamentali della natura; in mancanza della certezza assoluta che non solo esse esistano, ma che possano anche essere conosciute, come obiettivo secondario si propone la costruzione di modelli che possano descrivere i fenomeni e prevederne lo svolgimento.

Laddove la scienza ha quindi come obiettivo una conoscenza in un certo senso fine a sé stessa2, la conoscenza ingegneristica nasce per contro da obiettivi che potremmo dire applicativi: corpus di conoscenze che permettono di risolvere problemi (pratici). Come posso semplificare il processo del trasporto di oggetti e persone? Come posso rendere i miei strumenti più solidi? Come posso costruire un edificio più alto? Come posso trasmettere informazioni a grandi distanze in poco tempo? Come posso evitare di morire?

La conoscenza di tipo ingegneristico spazia quindi su tutto il sapere che ha finalità pratiche, da quella che ai giorni nostri si considera ingegneria (che sia edile, meccanica, elettronica) alla medicina, dall'agronomia all'economia. In effetti una larghissima parte del sapere umano nasce come ingegneristico, anche quando poi evolve in forme più pure ed astratte di conoscenza, dalle scienze alla matematica: se le conoscenze edili degli antichi romani sono evolute in quella che tuttora è ingegneria edile, la necessità di prevedere il tempo, i tempi e le stagioni è maturata nell'astronomia moderna; se coltura ed allevamento hanno stimolato lo sviluppo della biologia, la necessità di ridisegnare i campi dopo le alluvioni del Nilo ha gettato le basi per la geometria e per alcuni tra i più astratti aspetti della matematica che da essa derivano.

Ovviamente, la conoscenza ingegneristica non può e non deve sottostare ai canoni di rigore e formalismo che vengono chiesti alla conoscenza scientifica. Poco importa che tu non conosca i principî della statica che sottendono l'edilizia, se conosci comunque la necessità della chiave di volta ed i tuoi edifici reggono per millenni. È altrettanto vero che la possibilità di appoggiarsi a valide conoscenze scientifiche può significativamente consolidare la conoscenza ingegneristica.

Per questo, il sapere scientifico non è e non deve essere estraneo a quello di tipo ingegneristico: tra i due infatti esistono solidi legami che possono realizzarsi in un proficuo scambio di conoscenze. Da un lato la tecnica, le arti e i mestieri costituiscono una base potenzialmente inesauribile di dati sperimentali e possono aprire nuovi campi d'esplorazione alla ricerca scientifica; dall'altro, le applicazioni delle conoscenze ingegneristiche possono usufruire, spesso in maniera sorprendente ed inattesa, dei progressi delle conoscenze scientifiche; di ritorno, le nuove tecniche suggerite dai progressi della scienza agiscono come verifiche sperimentali della correttezza delle teorie scientifiche da cui sono derivate.

Dalla spinta reciproca che le due forme di sapere esercitano l'una sull'altra nasce la tecnologia: da un lato l'esigenza della scienza di andare sempre più a fondo richiede strumenti di osservazione e di analisi sempre più potenti, sempre più accurati; dall'altro, il progresso delle conoscenze scientifiche permette la costruzione di strumenti sempre più potenti, sempre più accurati.

Sui rapporti dei dominî del sapere

Vi sono almeno due abusi cui è sottoposta la scienza, sia come concetto che come soggetto. Entrambi derivano in maniera sostanziale dalla diversa percezione che della scienza ha “chi sa” e “chi non sa”, e sono egregiamente personificati nella figura dello scienziato pazzo tanto diffusa nel nostro immaginario collettivo. Questo personaggio incarna infatti quel paradossale miscuglio di entusiasmo e timore che i ‘profani’ coltivano nei confronti del progredire della scienza e dell'espandersi delle sue possibili applicazioni.

D'altro canto, lo scienziato pazzo è generalmente più interessato a piegare le leggi della natura al proprio volere che non semplicemente a conoscerle; più che di scienziato sarebbe quindi opportuno parlare di ingegnere pazzo: la conoscenza che egli persegue non è fine a sé stessa, ma ha obiettivi specifici. Già nel nome, lo scienziato pazzo mostra quindi la confusione fin troppo diffusa tra conoscenza scientifica e sapere di tipo ingegneristico; non a caso la sua figura si è andata diffondendo, ed (erroneamente) delineando, di pari passo con il progresso e la diffusione della tecnologia.

Tanto più la scienza ha svelato aspetti nascosti della natura che ci circonda, tanto più la tecnologia ha prodotto strumenti incredibili e portentosi, l'estrapolazione dell'applicazione dei quali viene identificato con un “giocare a fare Dio”; non tanto per la potenza intrinseca degli strumenti, quanto per la natura recondita degli aspetti della realtà fenomenica su cui operano o da cui derivano.

Il timore nei confronti dell'operato dello scienziato pazzo, ovvero dell'applicazionde della scienza, deriva quindi da una nostra (umana) (presunta) inadeguatezza a gestire queste conoscenze: inadeguatezza che viene talvolta espressa in una sua forma metafisica o spirituale (ad esempio, l'uomo non avrebbe la forza morale o la statura etica per operare sulle o con le forze della natura di cui è entrato a conoscenza), ed altre volte espressa invece in una sua forma più concreta, in termini della limitatezza della nostra conoscenza, e della conseguente impossibilità di prevedere fino in fondo le possibili conseguenze del nostro operato.

Ai sostenitori dell'inadeguatezza metafisica o spirituale si potrebbe chiedere qualcosa sul motivo di questa limitazione. Perché la spiritualità o la coscienza dell'uomo non ha seguito un processo di maturazione che andasse di pari passo con il progredire delle sue conoscenze scientifiche? È questo un limite intrinseco nella natura (metafisica) dell'uomo, ed in quanto tale invalicabile, o si è trattata invece di una incapacità, da parte di chi ha coltivato la spiritualità e lo studio della metafisica, di diffondere questa crescita, affinché il genere umano potesse guadagnare quella maturità che gli permettesse un uso corretto delle proprie nuove conoscenze scientifiche?

A voler rispondere a queste domande con qualche semplice considerazione sulla storia dei rapporti tra società e conoscenza, e tra i due tipi di conoscenza (fenomenica e trascendente), viene il sospetto che la trascendenza sia stata usata, più spesso che non, come strumento di potere e di controllo e soggiogamento delle grandi masse.

Anche i più rivoluzionari dei messaggi spirituali, raggiunta una diffusione sufficiente, sono stati piegati a meri strumenti politici. Laddove scienza e tecnologia sono (dapprima lentamente, poi sempre più rapidamente) trapelate fino a raggiungere grandi quantità di persone, la sapienza del trascendente ha sempre operato sulla separazione tra l'esoterico, riservato ad una élite, e l'essoterico, propinato come verità sedicente assoluta a masse talmente educate ad assorbire passivamente dogmi da rivolgersi con atteggiamenti fideistici anche alla scienza ed alla tecnologia, che prosperano invece su un approccio diametralmente opposto, sul pensiero critico, sull'analisi, sul dubbio.

Proprio su questo, peraltro, si gioca la seconda forma di inadeguatezza: la scienza, dopo tutto, è una forma di conoscenza superficiale, parziale e per di più fallibile; in quanto tale, essa è inaffidabile, soprattutto quando le forze in gioco sono talmente ‘fuori scala’ da mettere a rischio l'intero genere umano. Questo secondo atteggiamento di critica è forse il più paradossale. Si è infatti andato diffondendo con il crescere della capacità di scienza e tecnologia di dare risposte soddisfacenti e che pertanto davano alle masse meno motivo di rivolgersi alla sapienza trascendente.

È una critica che vorrebbe distogliere la gente da un approccio fideistico alla scienza (cosa che alla scienza farebbe solo bene), ma lo fa per proporre un approccio fideistico a qualcosa le cui risposte non sono più sentite come adeguate, vuoi per gli inevitabili dubbi sollevati dal loro effetto in millenni di storia, vuoi per le profonde manipolazioni cui sono state sottoposte.

Eppure, questo approccio fideistico alla scienza è proprio la seconda forma di abuso cui la conoscenza fenomenica è sottoposta; ‘scientifico’ diventa in tempi moderni parola chiave per indicare affidabilità e certezza, diventa sinonimo di ‘verità’ dimostrata (ed in quanto tale incontrovertibile): una violazione dell'essenza stessa della cultura scientifica più profonda.

E se ancora questo abuso di linguaggio potrebbe essere tollerato per quei rami della scienza le cui conoscenze sono maturate per molti secoli, ormai convalidate da innumerevoli solide esperienze ed applicazioni ed i cui limiti applicativi sono ben noti (ad esempio, la meccanica classica o, in misura minore, la chimica), molto più grave è l'applicazione del termine al di fuori del dominio della scienza vera e propria.

Succede infatti che lo stesso termine (‘scientifico’) venga applicato, con le stesse (erronee) implicazioni, a quelle forme di conoscenza che scientifiche non sono, ma che alla scienza si appoggiano. Da un punto di vista semantico, si potrebbe con una leggera forzatura parlare di ‘scientifico’ per qualcosa che si appoggia a conoscenze scientifiche, ma l'essenza della scienza, e ciò che la valida, sono il metodo ed il rigore.

Pertanto, se anche fosse lecito considerare ‘veri’ i risultati della ricerca scientifica più matura, la stessa certezza ed affidabilità non sono automaticamente ereditate dalle loro applicazioni (che per necessità non possono seguire gli stessi metodi). Né ci si può appoggiare con la stessa (peraltro discutibile) sicumera a quelle forme di conoscenza scientifica che, ferme ancora alle prime fasi, andrebbero meglio classificate come protoscienza; ed ancor meno si dovrebbe assumere un atteggiamento tanto appassionatamente fideistico nelle applicazioni che poggiano principalmente su queste forme così immature di conoscenza scientifica.

Beninteso, la critica qui non è rivolta al lavoro di ingegneri, medici, biologi, sociologi, psicologi, economisti e quant'altro, bensí piuttosto a chi (anche tra i loro ranghi) assume, nei confronti delle corrispettive branche della conoscenza, un atteggiamento che è già sbagliato per forme di conoscenza ben più mature, e tanto più lo è pertanto per quelle.

Perché la nostra conoscenza del fenomenico possa rendere il meglio è infatti essenziale riuscire a bilanciare, volta per volta, la possibilità (quando non la necessità) di sfruttare questa conoscenza nel suo presente, la coscienza dei suoi limiti e l'importanza del loro superamento.

  1. paradossalmente, però, Keplero giunse alla propria formulazione commettendo almeno due errori, che tuttavia si compensavano a vicenda. ↩

  2. nota ortografica: benché comunemente si preferisca nell'italiano scritto non accentare il sé quando rafforzato da ‘stesso’, varie considerazioni mi portano di questi tempi a preferire una certa omogeneità nell'ortografia; chi volesse approfondire può anche appoggiarsi alla relativa sezione di Wikipedia. ↩

Homo faber, homo destruens

Una delle considerazioni che mi piace reiterare è che il conflitto è naturale conseguenza del non trombare abbastanza. Al di là della sua ovvia volgarità, la considerazione può essere verificata a vari livelli, ed assume aspetti che, molto meno volgari, si rivelano in realtà anche interessanti come ottica sulla vita sociale degli individui.

Nella sua espressione più banale, la considerazion è quasi tautologicamente vera: dopo tutto, se la gente dedicasse al sesso una fetta sufficientemente grande delle proprie ore di veglia, non avrebbe non dico le energie, ma probabilmente nemmeno il tempo di dedicarsi al conflitto. Quindi defindendo “abbastanza” come “tanto da non aver più tempo/energie per”, la considerazione è banalmente vera.

In realtà, dal punto di vista fisiologico la considerazione ha riscontri ben noti; che il testosterone guidi sia l'impulso all'accoppiamento che quello al conflitto è praticamente vox populi, e chi non conosce ancora i bonobo, i nostri lontani cugini (evoluzionisticamente parlando) che risolvono i conflitti con estenuanti sessioni copulative? Certo sarebbe interessante capire per quale meccanismo evolutivo la loro specie abbia selezionato un simile tratto, laddove praticamente tutte le altre preferiscono darsele di santa ragione, menarsi invece che menarsela. E chissà che la cosa non sia anche correlata in qualche modo alla struttura matriarcale della loro società.

Ma alla questione si può dare un aspetto, diciamo, più “spirituale”. Volendo ipotizzare che gli esseri umani non siano al pari di tutti gli altri animali un semplice marchingegno con cui la Vita si riproduca, possiamo annoverare tra i quid che ci distinguono dal resto del vivente la nostra attitudine a creare, un'attitudine che va oltre non solo la meccanica riproduzione del proprio materiale genetico, ma anche oltre le più sofisticate ma comunque in qualche modo istintuali ed innate ingegneristiche creazioni animali (dalla tela di ragno alle dighe dei castori).

L'uomo (e non entro qui nelle questioni di genere) sarebbe quindi contraddistinto dalla sua creatività, la capacità di concepire idee e quindi (se non soprattutto) di esprimerle e renderle infine anche fruibili dagli altri per tramite di uno o più dei sensi. In questa attività, che ha un'origine intellettuale e trova spesso una conclusione in attività più o meno manuali, l'uomo trova la propria realizzazione.

Come nel caso dell'atto sessuale, l'atto creativo ha in sé una ricchezza maggiore del proprio compimento, è l'archetipico esempio del viaggio più importante della meta. Come nel caso dell'atto sessuale, il compimento dell'atto creativo porta ad una esaltate soddisfazione cui non sfugge, al seguio, uno strascicante senso di vuoto, una strana combinazione che da un lato stimola al ripetere dell'esperienza, dall'altro aiuta a mantenere quella separazione tra una ripetizione e l'altra che permetta al corpo, alla mente di rigenerarsi, recuperare le forze.

Sono molti i paralleli tra i due; si potrebbe anzi dire che l'atto sessuale e l'atto creativo siano manifestazioni diverse (l'una grezza, primitiva, primordiale, l'altra raffinata, sublime, evoluta) di uno stesso impulso.

E la castrazione porta l'individuo ad una perdita di interesse nei confronti dell'atto sessuale, spingendolo ad una rassegnata e passiva pigrizia, così si può fare per l'atto creativo, educando alla fruizione passiva e soffocando l'innato stimolo alla creazione: un importante strumento di controllo della popolazione.

I paralleli si spingono oltre: ad esempio alla frustrazione di chi, pur sentendo l'esigenza creativa, non riesca ad andare oltre il vago seppur pressante senso del bisogno, mancando quindi di intraprendere nuove attività creative, o abbandonandole appena iniziate, senza mai giungere alla soddisfazione del compimento. Una frustrazione che finisce con il cercare, e spesso trovare, sfogo in attività meno creative, generalmente più violente.

Chi non riesce a creare finisce, inevitabilmente, con il cercare di rompere.

Prima, seconda e terza classe

Uno dei più importanti insegnamenti che ho appreso da un professore è un detto inglese che recita:

First class people hire first class people. Second class people hire third class people.

le persone di prima classe assumono persone di prima classe, le persone di seconda classe assumono persone di terza classe.

La massima ha evidenti radici in ambito aziendale, e si applica con semplicità ed immediatezza ad altri ambienti che dell'azienda spesse volte rispecchiano alcuni meccanismi e strutture chiave, come quello accademico. Ma a ben vedere è uno di quei gifts that keep on giving, un regalo eterno; in effetti, non smetto di trovare occasioni dove queste semplici parole offrono una chiave interpretativa che nell'incisività della massima riassumono un pensiero che, benché non raro, rischia troppo di appartenere a quel famoso senso comune che tanto comune, purtroppo, non è.

La considerazione che si ha di una persona nasce generalmente da una di due grandi linee valutative (o più raramente da una loro commistione):

  • da un lato, abbiamo un principio valutativo che potremmo definire ereditario, in cui il primo strumento del valore di una persone è legato alla sua appartenenza: nascere in una famiglia nobile (appartenente appunto all'aristocrazia) piuttosto che nel popolino, nascere in una nazione piuttosto che in un'altra, appartenere ad una certa razza piuttosto che ad un'altra; in questa cultura del valore di classe, esistono insormontabili barriere, sicché il più miserabile dei cadetti sarà sempre e comunque una spanna sopra il più abile ed onesto degli stallieri;

  • dall'altro, abbiamo invece una cultura del valore che potremmo definire individualista; in questa prospettiva, il valore di una persona è legato alle sue azioni, alle sue parole, al suo pensiero piuttosto che alla sua appartenenza;

dalla commistione dei due criteri nascono contrasti legati alla discrepanza tra le presunte qualità degli appartenenti ad una categoria e le effettive qualità dell'individuo, conducendo a famosi paradossi come quelli del vero scozzese1, o difese del tipo «è un prete, non può aver stuprato quelle ragazzine».

La massima sulle persone di prima seconda e terza classe presenta una prospettiva diversa, per molti versi ortogonale (e quindi indipendente) dagli usuali criteri di valutazione, ma che comunque offre un giudizio di valore sulle persone; un giudizio basato non più solo sul valore individuale (né tantomeno su quello della categoria), ma sulla rete di rapporti che la persona costruisce con altre persone, e sul valore di queste.

Nel suo ambiente naturale, la massima riconosce facilmente come il successo di Google sia fortemente legato non solo alla genialità dei suoi fondatori, ma anche al loro desiderio di investire pesantemente sulle capacità dei dipendenti. Con uguale facilità, la stessa massima riconosce la piccolezza (non solo in termini estensivi o di mercato) delle aziende costruite su nepotismo, baciapilaggio e soprattutto la “non minacciosità” dei dipendenti verso i superiori (se il superiore pensa che il dipendente sia più bravo di lui e che pertanto costituisca una minaccia per il suo posto di lavoro, gli rende la vita un inferno).

La stessa massima ha però una flessibilità sorprendente, permettendo di leggere nella stessa nuova chiave situazioni in qualunque campo. I risultati non sono necessariamente nuovi o inusuali, ma possono comunque essere preziosi.

Un esempio banalotto di applicazione nel sociale è quello classico della ragazza non brutta che preferisce circondarsi di ragazze meno belle in modo da spiccare per le proprie qualità estetiche: un atteggiamento di seconda classe, che tale sarebbe se anche la bellezza della ragazza fosse eccezionale.

E come per la bellezza, così per l'intelligenza, la cultura: cerchi compagnia che ti arricchisca culturalmente, o intellettualmente stimolante? Prima classe. Ti circondi di gente che puoi schiacchiare con l'estensione del tuo sapere o con la tua sagacia? Seconda classe.

In realtà, ogni pensare ‘sociale’ può essere letto in questa chiave, anche per relazioni indirette o atteggiamenti generali, andando quindi oltre l'entourage della persona. Lavori perché la cultura raggiunga gli angoli più remoti della società? Prima classe. Studi per quel senso di appartenenza all'élite che si distingue dalla massa e dalla sua crassa ignoranza? Seconda classe.

Perché la classe di una persona non è il sangue che gli è capitato né l'abito che porta, ma l'ambiente: e non l'ambiente da cui ha avuto il caso di provenire, ma quello che contribuisce a costruire.

  1. all'italiana, la cosa funziona come segue. Un efferato omicidio viene commesso da uno straniero; un italiano legge la notizia e commenta: «un italiano non farebbe mai una cosa del genere.». Il giorno dopo il giornale riporta la notizia di un omicidio ancora peggiore commesso da un italiano. La reazione dell'italiano che legge la notizia non è «avevo torto, anche gli italiani commettono siffatti crimini», ma «un vero italiano non farebbe mai una cosa del genere». Il paradosso nasce dall'enumerazione delle cose che un vero italiano non farebbe mai, per poi scoprire che ciascuna delle cose è stata fatta da almeno un italiano. Ovviamente il discorso si può ripetere per qualunque raggruppamento (scozzese come nell'originale, italiano, cristiano, musulmano, biondo, bruno, alto, basso). ↩

Oblomov permalink
De corporis iuris administratione


Sorvoliamo per il momento sulla necessità (o meno) dell'esistenza di un codice di leggi (positive) perché una società funzioni; sorvoliamo perché, prima ancora di arrivare ai moderni anarchici, già secoli fa Tacito osservava che

plusque ibi boni mores valent quam alibi bonae leges

e valgono più lì i buoni costumi che altrove le buone leggi

Caius Cornelius Tacitus, De Origine et situ Germanorum

Sorvoliamo anche sulla possibilità che, o meglio sulle condizioni necessarie (e ancor di più su quelle sufficienti) affinché le leggi vengano rispettate; sorvoliamo anche perché sarebbe quasi doloroso parlarne in un contesto dove la legislazione, l'applicazione delle leggi e l'eventuale persecuzione delle violazioni sono da più d'un decennio sottoposte ad immonde manipolazioni per venire incontro agli interessi di un singolo individuo entrato in politica per evitare le conseguenze del proprio mancato rispetto delle leggi.

Vorrei invece prendere in considerazione i processi coinvolti nella formazione e nella modifica di un corpus di leggi, con particolare attenzione ad alcuni aspetti quali la tracciabilità, l'autenticazione e la gestibilità delle modifiche.

Nomic, ovvero del gioco delle regole

Ricordo di aver letto, credo nella pagina di Wutki1 di un Linus di parecchi2 anni fa, di un gioco di cui ho molta vaga memoria, ma che ricordo avere come elemento costitutivo la possibilità di cambiare le regole. Lunghi minuti di ricerche su Internet mi portano a scoprire che il gioco (o se si vuole la famiglia di giochi) prende il nome di Nomic ed ha persino un sito dedicato.

Il Nomic ha un insieme di regole iniziali, alcune mutabili altre immutabili, che stabiliscono modalità e condizioni per la creazione, la modifica e l'abrogazione di regole. Al proprio turno (ci sono regole anche per i turni, ovviamente, e come tutte le regole possono essere modificate) il giocatore propone una nuova regola o la modifica o l'abrogazione di una regola esistente, e prende o perde punti a seconda che la proposta si concretizzi (in una nuova regola o in un emendamento) o che essa venga invece bocciata (dopo eventuali discussioni e proposte di cambiamento). Il gioco termina con un vincitore, deciso secondo opportune regole (anche queste, ovviamente, modificabili).

Per sua natura, il Nomic modella quindi alcuni aspetti fondamentali di ciò che potremmo dichiarare una ‘democrazia ideale’: tutti i giocatori possono proporre, tutti i giocatori devono votare sulle proposte, etc. In quanto tale, il Nomic è un'ottima piattaforma su cui sperimentare in gioco il frutto delle mie riflessioni sull'argomento della gestione di un corpus di leggi, ovvero di regole.

Limiti delle gestioni attuali

Sia detto subito che nella ricerca dei limiti degli attuali sistemi di legislazione (dove per ‘attuali’ credo si possa risalire almeno fino al primo corpus iuris formalizzato nell'antica Roma) non mi interessa indagare approfonditamente le cause di questi limiti, le motivazioni che spesso risultano essere di carattere pratico o logistico. E le motivazioni non verranno indagate a fondo non tanto perché io le ritenga insignificanti in sé, quanto piuttosto perché ai fini delle proposte che andrò ad analizzare più avanti esse risultano decisamente poco rilevanti rispetto ai limiti stessi.

I due principali limiti riscontrabili nei sistemi legislativi auttali sono, a mio prare, il problema della paternità e la forma normativa degli emendamenti.

Il problema della paternità

Salvo poche e pertanto famose eccezioni, per ciascuna norma in vigore è tutt'altro che immediato sapere chi l'ha proposta e da chi è stata votata; ancora più difficile è trovare i promotori di ciascun emendamento, o dell'abrogazione di una norma3.

Anche quando queste informazioni sono disponibili (ad esempio attraverso le trascrizioni dei dibattiti parlamentari), infatti, esse non sono in genere di agevole estrazione, e certamente non sono raccolte in alcuna base dati (almeno di mia conoscenza) che le renda accessibili con strumenti di ricerca più o meno raffinati.

Laddove in un gioco come Nomic la paternità normativa è utile solo ai fini del calcolo del punteggio, e può quindi essere ‘dimenticata’ al turno successivo, in sistemi legislativi reali essa è una componente fondamentale della responsabilità del legislatore.

Regole ed emendamenti

Una questione più sofisticata è quella della distinzione tra regole ed emendamenti. Tanto in Nomic quanto nei sistemi legislativi correnti, infatti, gli emendamenti a norme esistenti seguono il medesimo processo di registrazione delle norme stesse; di più, sono regole essi stessi, regole il cui contenuto è peraltro spesso criptico, limitandosi ad asserire le variazioni del testo della norma emendata, contribuendo così a rendere ancor meno agevole la lettura di testi che già per loro natura sono di non immediata comprensione. Un discorso analogo vale anche per le abrogazioni.

Se da un punto di vista logistico l'equazione tra emendamenti e norme è comprensibile, dal punto di vista applicativo essa causa confusione, e dal punto di vista concettuale viola la sostanziale differenza tra la natura dell'emendamento e quella della norma.

Version control systems: l'esperienza del programmatore

Chiunque abbia lavorato ad un grosso progetto (una tesi di laurea, un romanzo, una suite informatizzata per ufficio, un wok) si è quasi inevitabilmente trovato nella condizione di tenere (o di aver desiderato di aver tenuto) vecchie copie dell'opera, prima di una grande modifica: una riscrittura, l'escissione di un brano, una revisione completa.

Uno dei vantaggi offerti dai computer è la facilità con cui si possono creare copie, sicché ci si ritrova facilmente con tesi.doc, tesi.doc.old, tesi.doc.old1, tesi.doc.prima-del-prof, tesi.doc.19982605, etc. È abbastanza evidente che dopo l'ennesima revisione si comincia ad avere qualche difficoltà (1) a ricordare quale file era quale e (2) a trovare nomi significativi per le copie di riserva.

Per questo i programmatori hanno inventato una intera classe di programmi che prendono il nome generico di version control system (vcs) e che hanno appunto lo specifico obiettivo di rendere più semplice la gestione delle revisioni.

I vcs distinguono chiaramente tra lo spazio di lavoro (l'insieme dei file gestiti, che può essere un singolo file come un complesso sistema con ad esempio una cartella per ogni capitolo della tesi, contentente i relativi documenti di testo e le immagini, più un documento centrale) e la sua storia, la sequenza di cambiamenti di cui tiene traccia.

Ogni cambiamento registrato nel vcs (in linguaggio tecnico, ogni commit) contiene una ‘fotografia’ dello spazio di lavoro al momento della registrazione, con associate informazioni di corredo quali (come minimo) l'autore, la data, ed un messaggio (generalmente utilizzato per descrivere le modifiche dalla ‘fotografia’ precedente, ovvero il lavoro svolto).

Un altro aspetto importante dei vcs è la possibilità di creare ramificazioni nella storia di un progetto. Per lo sviluppo di software, questa capacità viene sfruttata ad esempio per sperimentare, senza disturbare il ramo di sviluppo principale, l'aggiunta di una nuova funzione o la correzione di un problema che richiede modifiche molto complesse: quando la nuova funzione è stata implementata con successo, o il problema risolto, le modifiche effettuate vengono poi integrate nel ramo di sviluppo principale.

{ Approfondire }

Version control systems per i sistemi legislativi

Dovrebbe ormai essere abbastanza evidente dove voglio andare a parare: perché non prendere gli elementi strutturali dei vcs ed applicarli ai processi di creazione, modifica ed eliminazione delle leggi?

Non è difficile tracciare paralleli: il corpus di leggi correnti corrisponde alla più attuale ‘fotografia’ dello “spazio di lavoro”, i cui cambiamenti vengono registrati nella storia del corpus come modifiche, siano esse la scrittura di nuove leggi, l'emendamento di leggi esistenti o la loro abrogazione. Il risultato dei cambiamenti è una nuova ‘fotografia’ con aggiunti i testi delle nuove leggi, eliminati quelli delle leggi abrogate, e modificati quelli delle leggi emendate: non spunterebbero articoli di legge il cui contenuto indichi una differenza tra la precedente e la nuova versione del testo.

I commit corrispondenti alle modifiche avrebbero una chiara indicazione del chi, del quando, magari pure del perché. L'intero iter di ciasuna modifica potrebbe essere sviluppato in una ramificazione, mantenendo così la storia dei vari passaggi fino alla ratifica definitiva, corrispondente all'integrazione nel tronco principale.

L'intera storia del corpus sarebbe liberamente accessibile (in lettura) da qualunque cittadino, permettendo a chiunque non solo di consultare le leggi correnti, ma anche (agli storici o a chiunque altro fosse interessato) di studiare l'evoluzione delle leggi stesse, nonché di determinare facilmente chi e quando ha proposta ciascuna modifica.

{ Metadati extra rispetto ai classici vcs (es. risultati dettagliati delle votazioni) }

{ Costruire una variante di Nomic come esempio }

  1. sconvolgente: c'è ben poco su Wutki in rete ↩

  2. e per parecchi intendo non meno di una venti-trentina ↩

  3. nel campo delle abrogazioni stanno ad esempio invece facendo molto rumore le leggi letteralmente date alle fiamme dal ministro della Semplificazione, Calderoli, che avrebbe forse fatto meglio a moderare il proprio entusiasmo e verificare cosa stesse facendo. ↩

Il caso Berlusconi

Vi sono almeno quattro aspetti fondamentali del “caso Berlusconi”:

Benché chiaramente distinti l'uno dall'altro, essi sono fortemente intrecciati in una rete di interdipendenze che ha raggiunto un tale radicamento da rendere pressoché impossibile prescindere da uno qualunque di essi per studiare l'altro. In alcuni casi la cosa è fortemente voluta (come gli evidenti legami tra la questione politica e quella giuridica); per altri, bencé sia possibile vedervi una strategia di lunghissimo termine progettata da una mente sopraffina, si trovano spiegazioni talmente semplici negli angoli più infimi della natura umana da non richiedere ricerche più complottistiche.

Il caso Berlusconi non nasce tanto dalle singole questioni che esso tocca, perché singolarmente esse non sono nulla di nuovo (nella storia dell'umanità si trovano innumerevoli esempi di ciascuna); piuttosto, il suo cuore è proprio quel loro solido intreccio che ha trasformato in beceri tribalità una nazione con potenziali doti da élite.

La questione giuridica

I problemi giudiziari di Berlusconi e delle sue aziende cominciano nel lontano 1979, con un'ispezione della Guardia di Finanza i cui agenti decidono però di non procedere nonostante le anomalie riscontrate; coincidentalmente, uno degli agenti appartiene alla loggia massonica P2 di cui fa parte anche Berlusconi, l'altro passa a lavorare per Berlusconi stesso pochi mesi dopo l'ispezione, finendo in seguito comunque nei guai per depistaggio delle indagini (in un'altra inchiesta) e favoreggiamento.

Negli anni a seguire Berlusconi si ritrova coinvolto in processi che orbitano principalmente intorno a questioni economiche (dal falso in bilancio al finanziamento illecito ai partiti) a questioni più personali (dalla corruzione alla falsa testimonianza). Alcuni di questi si risolvono in maniera naturale in sentenze di assoluzione, ma i più interessante sono quelli i cui procedimenti vengono interrotti: dapprima intervengono amnistie concesse dal Partito Socialista Italiano (coincidentalmente, lo stesso partito illecitamente finanziato dalle aziende di Berlusconi) ed in seguito, con il crollo della cosiddetta prima repubblica e l'entrata in politica di Berlusconi stesso, alcuni per prescrizione ed altri per depenalizzazione dei reati contestati.

Coincidentalmente, sia la riduzione dei termini di prescizione sia le depenalizzazioni che permettono a Berlusconi di evitare le sentenze di condanna sono opera di governi guidati da Berlusconi stesso. Volendo sorvolare sulle perplessità che queste coincidenze dovrebbero sollevare in una mente sana, l'aspetto più interessante di questi risultati è che anche quando le sentenze indicano chiaramente la colpevolezza dell'imputato e l'aborto del procedimento per intervenuta prescrizione, l'onda della scarsa o cattiva informazione (discussa più avanti per quanto riguarda la questione sociale) riesce a trasformare la percezione del risultato in una piena assoluzione, contribuendo a rafforzare l'idea della persecuzione giudiziaria nei confronti del tuttavia riconosciuto colpevole Berlusconi.

Ma la questione giudiziaria del caso Berlusconi ha nella sua storia processuale soltanto le proprie radici. Sono invece le implicazioni a medio e lungo termine proprio di quegli interventi legislativi che nella seconda fase berlusconiana (ovvero in seguito alla sua entrata in politica) hanno casualmente avuto l'effetto collaterale di salvare Berlusconi, a costituirne l'infrastruttura, completata da una mirata sottrazione di risorse e l'aggiunta di quanti più ostacoli possibili a ben determinati procedimenti d'indagine.

La questione si manifesta con sintomi quali la quadruplicazione del numero di processi terminati per prescrizione nel giro di qualche anno o l'aumento dell'evasione fiscale (ai fini della quale il falso in bilancio è uno dei principali strumenti per le grandi aziende), risultati opportunamente taciuti per evitare che una forza politica che ha costruito parte del proprio consenso sulla lotta al crimine si manifesti come talmente poco attenta (per non dire peggio) ai crimini ‘bianchi’ da mettere a rischio anche la persecuzione di quelli ‘neri’ su cui è costruita la paura dell'elettorato.

Proprio questa trappola delle eccessive conseguenze ha impedito la realizzazione di leggi castranti per quei procedimenti d'indagine che si dimostrano utili non solo per i più classici reati berlusconiani, ma anche per quelle lotte su cui i suoi governi hanno costruito la loro propaganda politica1. Almeno finora.

La questione politica

La questione politica di Berlusconi comincia con quella che potremmo definire “fase craxiana”, in cui Berlusconi opera come imprenditore, ma viene favorito a una serie di interventi di governi guidati da Bettino Craxi e dal suo Partito Socialista Italiano, interventi che vanno dalle agevolazioni fiscali (permettendo elusioni fiscali e camuffamento del debito con giochi delle tre carte tra le varie aziende berlusconiane) a mirate amnistie giudiziarie, passando per leggi atte a concedere a Berlusconi il sostanziale monopolio della comunicazione televisiva privata.

Con il crollo della cosiddetta prima repubblica e l'approssimarsi della bancarotta (4 mila miliardi di lire di debito), nel 1993 Berlusconi decide di “scendere in campo” con un proprio “movimento” (quota d'iscrizione: centomila lire) che arriverà al governo nel 1994, in una coalizione che comprende Alleanza Nazionale e la Lega Nord: proprio quest'ultimo alleato farà cadere il governo 8 mesi dopo, e Bossi e Berlusconi si dichiareranno acerrimi nemici (salvo ricucire cinque anni dopo, nonostante le campagne della Lega a base di “Berlusconi mafioso”).

Il partito di Berlusconi viene fondato sulla menzogna: per mesi dopo la sua fondazione, Berlusconi continuerà a negare di voler scendere in politica. Tra i suoi fondatori spiccano nomi quali quello di Cesare Previti (tutore della minorenne proprietaria della villa San Martino ad Arcore venduta a Berlusconi per una cifra ridicola, e condannato per corruzione nei processi IMI-SMIR e lodo Mondadori) e Marcello Dell'Utri, condannato per frode fiscale nonché per concorso esterno in associazione mafiosa (ovvero per il suo operato di intermediario tra la mafia e Silvio Berlusconi), e famoso per la sua accorata difesa di Vittorio Magnano, noto mafioso pluriomicida e spacciatore nonché stalliere nella succitata villa.

La discesa in campo permette a Berlusconi una aggressiva strategia di “difesa politica”, con risvolti attivi e passivi.

La difesa politica passiva si concretizza nel trasformare in questione politica tutto ciò che non lo è, implicando che i problemi cui Berlusconi va incontro non si sarebbero presentati se egli non fosse stato un politico. Esempi clamorosi:

  • tutti i procedimenti giudiziari a carico di Berlusconi diventano magicamente una persecuzione politica, un tentativo di (parte della) magistratura di sovvertire la democrazia, etc; per poterci credere occorre ovviamente ignorare la lunga storia giudiziaria di Berlusconi; coincidentalmente lo stesso Dell'Utri, cofondatore di Forza Italia, ha candidamente ammesso di non essere interessato alla politica se non per difendersi dai procedimenti giudiziari, confermando che più che di un caso di uso politico della giustizia sarebbe più opportuno parlare di uso giudiziario della politica;
  • quando il gruppo Fininvest, per riguadagnare liquidità ed allontanare il pericolo bancarotta, venderà la Standa, Berlusconi darà la colpa alle giunte di centrosinistra che gli avrebbero negato le autorizzazioni per l'apertura di nuovi punti vendita, piuttosto che riconoscere che i problemi risallisero a ben prima della sua entrata in politica e fossero quindi piuttosto legati alla cattiva amministrazione, ed evitando così di sfatare la propria immagine di grande imprenditore su cui costruisce le proprie promesse elettorali.

Si può invece parlare di difesa politica attiva con i vari interventi con cui i governi Berlusconi hanno introdotto norme ed atti per favorire lo stesso, vuoi riducendogli i guai giudiziari, vuoi creando condizioni particolarmente favorevoli per le aziende di Berlusconi o ostacolandone la concorrenza.

Quando l'azione politica di Berlusconi va oltre la semplice difesa dei propri interessi, non procede mai nella direzione che ci si aspetterebbe prestando fede all'immagine di “nuova destra, destra liberale” con cui Berlusconi è sceso in campo, immagine usata per distinguerlo tanto dai famigerati nemici comunisti quanto dall'esistente destra conservatrice.

Da una destra liberale ci si aspetterebbe una riduzione della burocrazia, un ‘dimagrimento’ del carico amministrativo dai livelli più alti (Stato) a quelli più bassi (comuni), una (magari consequenziale) riduzione del carico fiscale, la rimozione dei paletti che impediscono una sana concorrenza, magari persino qualche stimolo alla piccola e media imprenditoria.

Se si va invece a studiare l'operato dei governi Berlusconi, si scopre che le azioni sono spesso andate invece in direzioni opposte; in alcuni casi con motivazioni facilmente indovinabili, come per esempio la creazione di ostacoli ai principali competitori delle aziende berlusconiane, altre volte invece inspiegabilmente, come per il sensibile aumento della spesa pubblica in quest'ultimo governo, nonostante i massacranti tagli a istruzione e ricerca e il carico fiscale sostanzialmente invariato, anzi impercettibilmente (qualche punto per mille) più elevato; arrivando alla situazione paradossale che è più facile trovare interventi liberali nell'operato degli altri governi, additati da Berlusconi quali comunisti fedeli alle proprie radici nonostante le apparenze.

Più che con la destra liberale, il progetto di riforme perseguite da Berlusconi e non direttamente riconducibili alla propria difesa presentano, piuttosto, sorprendenti somiglianze con il cosiddetto “piano di rinascita democratica2” della loggia massonica P2 di cui, coincidentalmente, Berlusconi stesso era membro.

{ Approfondire }

La questione sociale

L'impatto sociale in Italia del caso Berlusconi affonda le sue radici nella sua posizione dominante nel campo della comunicazione televisiva privata, posizione peraltro ottenuta e mantenuta illegamente (dalla trasmissione su scala nazionale, proibita ma “provvisoriamente” sanata da decreti craxiani fino alla legalizzazione con la legge Mammì, all'occupazione abusiva delle frequenze di Europa 7 ad opera di Rete4).

La ‘rivoluzionaria’ rottura dalle reti pubbliche con cui Berlusconi presenta i propri canali televisivi si concretizza in un operato di adescamento, sfaldamento qualitativo e decadimento culturale che con la scusa dell'accessibilità universale spianano la strada per una propaganda del culto dell'immagine, dell'intrattenimento e della vacuità, una riforma culturale che piace a tutte le forme di potere e solleva solo qualche fiacco tenativo di contrasto, spesso più di forma che di sostanza.

In una dozzina d'anni il terreno è fertile abbastanza da permettere a Berlusconi di “scendere in campo” con gran clamore di folle ed invocazioni all'“unto del Signore” e di assumere il controllo anche delle rete televisive pubbliche, cui segue una lenta ma inesorabile espulsione di tutte le figure la cui voce discorda da quella del padrone.

La riforma sociale procede nel frattempo con gli effetti collaterali della difesa politica attiva di Berlusconi, principalmente la creazione di sostanziosi ostacoli al perseguimento dei “crimini dal colletto bianco” (evasioni fiscali, truffe, corruzioni, concussioni), che si traduce in un loro fattuale favoreggiamento, laddove non si arrivi ad un plateale incoraggiamento (più volte Berlusconi ha indicato la via dell'evasione fiscale come “disobbedienza civile” eticamente corretta).

In tema di crimini, viene attuata una metodica manipolazione dell'informazione, dandovi grande rilevanza durante i governi di centrosinistra e passandoli invece sottotono (quando non sotto silenzio) durante i governi Berlusconi; si preferiscono inoltre i reati commessi da immigrati (o i cui principali indiziati siano immigrati) a quelli commessi da italiani (o i cui effettivi colpevoli si rivelino poi essere italiani). Il tutto aiuta a coltivare i sentimenti xenofobi e razzisti su cui fa leva il principale alleato di Berlusconi (la Lega Nord) e l'illusione di maggiore sicurezza durante i governi di centrodestra (miglioramento purtroppo non confermato dai fatti).

Il ruolo fondamentale che la (dis)informazione svolge nella consistenza sia del potere berlusconiano che nella pervicacia della sua influenza sociale è evidente nelle accanite difese attuate per il mantenimento del monopolio comunicativo televisivo (a discapito del fantomatico liberalismo di cui i partiti berlusconiani si fanno araldi) ed agli ostacoli posti alle forme più nuove di comunicazione (internet in particolare).

Un ulteriore significativo aspetto dell'impatto sociale di Berlusconi è legato alla questione morale e si manifesta nella particolare alleanza con la Chiesa Cattolica.

Da un lato, il centrodestra si presenta infatti come il paladino dei valori cristiani (e cattolici in particolare), che si manifesta con azioni molto d'impatto (ad esempio minacciando violenza a chi oserà togliere i crocifissi dagli edifici pubblici laici tipo scuole e tribunali, od organizzando Family Day in difesa della famiglia cattolica) e poco di sostanza.

Dall'altro, andando a guardare più da vicino, questi paladini si scoprono essere (pluri)divorziati, puttanieri, pedofili, aggrappati quasi disperatamente al potere temporale, poco francescani nell'approccio ai beni terreni, razzisti ed in generale poco esemplari come modelli di comportamento per i valori cristiani.

Ogni manifestazione e pubblicizzazione della loro scarsa valorizzazione cristiana si traduce in un rimbrotto più o meno serio da parte degli organi di stampa ufficiali ed ufficiosi del Vaticano, cui consegue qualche favore alla Chiesa Cattolica3, per evitare che l'elettoralo cattolico venga dirottato altrove, minacciando la ricostruzione del centro.

Ci ritroviamo così ad esempio con il perdurare di trattamenti economici di favore per le attività commerciali della Chiesa, con tagli a dir poco drastici all'istruzione pubblica che però miracolosamente non toccano i finanziamenti alle scuole private (principalmente cattoliche) né i dipendenti che alla scuola pubblica vengono imposti dalla Chiesa (ovvero i professori di religione), ed il vuoto legale su temi che vanno dalle unioni civili a questioni bioetiche come l'eutanasia. Il tutto propugnato in nome di valori cristiani imposti a tutti i cittadini, ma non seguiti dai loro più vocali sostenitori.

La Chiesa appoggia quest'uomo di potere che ha fatto della superficialità, dell'immagine, del materialismo, della lussuria (stringiamo: di tutti i peccati capitali) il proprio modus vivendi proprio per la sua ricattabilità sociale al minimo scandalo.

Ma ben più grave di come la Chiesa possa sfruttare la facilità con cui Berlusconi si rende ricattabile è come proprio questo modus vivendi (che la Chiesa verbalmente condanna salvo poi appropinquarcisi essa stessa appena possibile) sia diventato un modello sociale vincente.

La più profonda sindrome dell'impatto sociale di Berlusconi non si rispecchia tanto in coloro che credono alla falsità delle (documentate) accuse, ma molto più in coloro per cui quelle stesse accuse non rappresentano un problema4, coloro per i quali il suo comportamento non è riprovevole, anzi.

Sono quelli per i quali chi disprezza Berlusconi lo fa per invidia, forse perché non riescono a non proiettare sugli altri la propria invidia sublimata in ammirazione. Sono quelli che di fatto vivono nel desiderio di poter anche loro fare i vecchi bavosi puttanieri e pedofili costruendo un impero di falso, corruzione, egotismo, sfruttamento, ingordigia: un regresso sociale al sogno di trimalchionici fasti da patroni circondati da clientes.

La questione morale

Proprio questa nuova etica sociale, con lo sdoganamento del puttaneggio, del clientelismo, dell'abuso di potere, rappresenta il ‘piede pubblico’ della questione morale del caso Berlusconi. In un tuonare ipocrita contro il fancazzismo ed a favore della meritocrazia, si premiano poi servilismi e nepotati.

Si è arrivati al punto che chi critica questi atteggiamenti e questi comportamenti viene tacciato di ‘moralismo ipocrita’ (colmo dell'ironia), sottintendendo (ma anche affermando apertamente) che avendone l'opportunità anche il criticone approfitterebbe. Che ci sia (purtroppo sempre meno) gente ancora dotata della dignità di incazzarsi per aver ricevuto a propria insaputa una raccomandazione non sembra nemmeno credibile.

Ma la questione morale del caso Berlusconi ha anche un (ultimamente sempre più evidente) risvolto privato, nei confronti della quale si possono assumere quanto meno due attegiamenti diametralmente opposti.

Un atteggiamento, che viene presentato come il più rispettoso della privacy, sostiene che chiunque, nel privato della propria domus, abbia (e debba avere) piena libertà di fare ciò che vuole, senza doversi preoccupare di inquisizioni.

L'atteggiamento diametralmente opposto è invece quello sostenuto da Augusto Minzolini per larga parte della propria carriera. Sosteneva Minzolini nel 1994:

un politico è un uomo pubblico in ogni momento della sua giornata e che deve comportarsi e parlare come tale. Il rinnovamento del Parlamento italiano è un fenomeno anche sociologico di cui la stampa deve dare conto: io non dimentico mai che il mio referente è il lettore e non il politico e che il mio compito è quello di rappresentarlo come è senza mediazioni

e ancora:

Oggi penso che se noi avessimo raccontato di più la vita privata dei leader politici forse non saremmo arrivati a tangentopoli, forse li avremmo costretti a cambiare oppure ad andarsene. Non è stato un buon servizio per il paese il nostro fair play: abbiamo semplicemente peccato di ipocrisia.

ed infine:

La distinzione fra pubblico e privato è manichea: ripeto, un politico deve sapere che ogni aspetto della sua vita è pubblico. Se non accetta questa regola rinunci a fare il politico.

(Questo, ovviamente, quando era ancora giornalista a La Stampa e non il magister della simulazione e dissimulazione informativa a favore di Berlusconi cui è stato ridotto il telegiornale della prima rete RAI.)

Senza scegliere alcuna delle due posizioni, si potrebbe osservare che l'interesse pubblico per la vita privata di qualcuno (a prescindere dal rilievo sociale e politico del qualcuno stesso) sia strettamente legata alle conseguenze che tale vita privata avrebbe sulla res publica stessa.

Se ad esempio io tengo rinchiusa mia figlia in cantina per vent'anni, stuprandola quotidianamente, difficilmente potrei trovare qualcuno disposto a sostenere che io possa fare ciò che voglio nel privato della mia casa. La libertà d'azione domestica è quindi comunque limitata da regole, legali5 o morali che siano. Se ho rapporti sessuali a pagamento con una minorenne, sono implicato in un reato (prostituzione minorile, per i quali si è colpevoli anche come semplice ‘utilizzatore finale’). Se sono un politico importante e telefono in questura mentendo sull'identità di una minorenne e scavalco l'autorità del suo giudice tutelare per evitare che vengano fuori i crimini suddetti, commetto un altro reato (concussione). Ma questi sono aspetti che pertengono alla sfera giuridica, non quella della morale privata.

Nel caso di persone che rivestono ruoli istituzionali intervengono inoltre questioni legate alla sicurezza nazionale. Un capo del governo che lasci casa propria aperta a cagne e porche senza alcun controllo di sicurezza, lasciando la propria persona aperta a rischi di ricatto6 o, peggio, assassinio, è un irresponsabile nei confronti della propria nazione. L'irrilevanza internazionale dell'Italia diventa così la sua fortuna, perché se qualche nazione (o, per dire, una mafia o una camorra qualsiasi) l'avesse voluto far fuori per la sua scomodità, non avrebbe avuto nessuna difficoltà ad infiltrare una bella gnocca assassina nell'entourage delle sue feste. Ma questi sono aspetti che pertengono alla sfera politica, non a quella della morale privata.

Ma entrando più specificamente nel merito della questione morale, il punto chiave per la morale privata dei politici è la sua aderenza a quella che essi stessi pretendono di imporre alla nazione. Il nodo cardine non è la divergenza tra la morale di chi critica e quella di chi fa, ma tra quella dichiarata da chi fa e quella secondo cui lo stesso agisce. Vuoi combattere la prostituzione? Mi sta bene: ma non puoi farlo se è la tua principale fonte d'intrattenimento senza essere tacciato di ipocrisia. Vuoi batterti per la meritocrazia? Ottimo: ma non puoi farlo mentre regali carriere (in politica, nello spettacolo, nell'imprenditoria) a gente che come unico merito ha quello di averti tenuto compagnia per una o più notti, senza essere tacciato di ipocrisia.

Una conclusione

Nonostante il battage da mania persecutoria con cui Berlusconi addita magistrati e giornali supposti comunisti come responsabili dei suoi problemi giudiziari e politici, è molto interessante notare come, di fatto, sia stato egli stesso il fautore del proprio infagamento. (Anche) per questo non concordo con chi ha voluto tracciare un parallelo tra la carriera criminale di Al Capone terminata con una banale condanna per evasione fiscale, e la carriera politica di Berlusconi, disastrosa per l'Italia e (nelle speranze di chi fa il paragone) terminabile con il “caso Ruby”. La prima, infatti, sopraggiunse per un minuzioso (e sanguinoso) lavorìo di indagine, laddove Berlusconi si è praticamente fatto cogliere (diciamo metaforicamente) con le braghe calate.

Un po' di storia

A Berlusconi piacciono le giovani e belle ragazze. La cosa mi sembra indiscutibile: lo dice lui stesso, lo sostengono i suoi sostenitori (preferendolo anche per questa sua viril virtù ai culattoni stile Vendola), e lo sostengono (comprovatamente) i suoi avversari. È anche naturale che uno a cui piacciano le giovani e belle ragazze se ne circondi quando può, come può.

Con Berlusconi, la gratitudine per la piacevole compagnia si manifesta in varie forme, alcune delle quali (come la candidatura alle elezioni europee) non è piaciuta nemmeno alla sua (seconda) moglie, Veronica Lario, che dopo avergli suggerito pubblicamente di darsi una calmata, ha proceduto avviando una causa di divorzio prendendo spunto dalla visita offerta da Berlusconi alla festa dei 18 anni dell'angelica Noemi Letizia dopo che lo stesso aveva mancato di presenziare le analoghe feste dei propri figli con la Lario stessa.

Fin qui si tratterebbero di semplici beghe di famiglia (modulo la candidatura alle europee di giovani pulzelle la cui unica referenza sembrava essere la bella presenza). Dove Berlusconi ha toppato è stata nella costruzione di fragili castelli di menzogne e bugie intorno alla sua conoscenza della ragazza in questione (Noemi Letizia). Menzogne dalla cui creazione deriva spontanea la domanda: perché mentire? Cosa aveva di tanto scomodo la verità da essere più pericolosa dal farsi scoprire a mentire?

Il secondo passo dirama da una questione che non solo non riguardava Berlusconi, ma che anzi era incentrata più sulla sua opposizione, nascendo da un'indagine su intrecci tra imprenditoria, politica (di sinistra) e mafia nella sanità barese. Da quell'indagine, che continua per la sua strada, viene fuori (stralciato) anche un giro di prostituzione in cui Berlusconi risulta essere ‘utente finale’ (questione morale), ma per il pagamento dell'usufrutto del quale si profinalo reati di corruzzione e concussione: tu mi dài la gnocca, io ti faccio avere permessi, agevolazioni, etc. Ma non sono solo i ‘fornitori’ di gnocca a ricevere benefici vari: il giro è anche un modo per le donne stesse di avvicinare il soggetto per chiedere favori personali.

Il terzo tempo è quello di Kareem Abdul-Jabbar Karima el Marug, che viene arrestata per un tentativo di furto. E nuovamente, è Berlusconi a creare un caso che altrimenti non esisterebbe, mentendo sull'identità della minorenne ed abusando della propria posizione per scavalcare la decisione del giudice tutelare della stessa. È proprio questo suo goffo tentativo di difesa che fa scattare la frana che adesso lo travolge: dalla concussione scaturisce un'indagine che scoperchia aspetti del già notato giro di prostituzione che hanno anche, grazie alla legge contro la prostituzione minorile varata dal suo stesso governo, risvolti criminali.

Circondato da adulazione e servilismo, abituato ad usare con successo il proprio denaro ed il proprio potere per corrompere e spianare, Berlusconi non ha mai sviluppato alcuna finezza nel nascondere e proteggere i propri vizi (che ad occhio e croce direi essere lussuria, superbia ed avidità).


Ad esempio: perché un ultrasettantenne ricco possidente (nel proprio Paese come all'estero) sceglie di governare un Paese conducendolo allo sfascio totale piuttosto che di godersi un meritato riposo disteso sui propri sfarzosi cuscini?

Oppure: fino a che punto Berlusconi crede all'immagine di sé che gli piace cercare di proiettare in pubblico, del magnate fattosi con le proprie mani, dal cuore d'oro ed amato dalla gente, ma perseguitato dai comunisti?

Se anche potessimo chiederlo a lui direttamente, non so quanto affidabili possano essere le sue risposte: dopo tutto, lui sostiene di essere entrato in politica per difendere l'Itali ai comunisti, e se fosse vero direi che l'unico modo in cui ci sta riuscendo è stato di demolirla e renderla quindi totalmente inappetibile a qualunque concorrente.

Il sospetto che vado maturando è che la sua entrata in politica possa essere stata motivata non solo dall'esigenza di proteggersi dalle imminenti condanne per evasione fiscale e corruzione, nonché dall'approssimarsi della bancarotta, e di sfuggire quindi dalla altrimenti limitata scelta tra il carcere e l'espatrio

Mi ha sorpreso infatti una delle sue recenti dichiarazioni con cui ha cercato di non-difendersi attaccando i soliti magistrati comunisti, presentando l'idea che il loro scopo fosse quello di raggiungere il Quirinale. Perché proprio il Quirinale? Poi uno guarda all'ammirazione che Berlusconi non nasconde di provare per leader come Qaḍḍafi o Putin (ammirazione che trascende i meri interessi economici7) e viene il sospetto che Berlusconi abbia interesse a trasformare l'Italia nel proprio feudo personale: gli mancano solo una riforma per il presidenzialismo, facendo coincidere così finalmente il capo di Stato con il capo del governo (ricorda qualcosa?) e la propria candidatura.

Così lontano, così vicino …

I difensori

Sociologicamente parlando, il fenomeno più interessante del caso Berlusconi sono i suoi sostenitori. Non parliamo qui di coloro che hanno un interesse diretto nella sopravvivenza del potere del soggetto, ovvero dei suoi vari collaboratori e dipendenti, ma del grande popolo che lo ama, lo stima, gli crede (grande popolo che, se i risultati delle elezioni sono un indice di qualcosa, non raggiunge nemmeno un quarto della popolazione nazionale con diritto di voto, ma comunque un numero ragguardevole).

Come già accennato, i sostenitori di Berlusconi si dividono sostanzialmente in due macrocategorie, non perfettamente distinte, che potremmo definire ‘creduloni’ e ‘sagaci’.

Il sostenitore sagace è quello ben conscio del fatto che Berlusconi sia sostanzialmente un truffatore che va avanti a suon di corruzioni, abusi di potere e raccomandazioni date e ricevute, ma che non vedono in ciò nulla di male, ed anzi lo ammirano per essere riuscito.

È quello che, se gli chiedesse se è vero che sua figlia è la fidanzata di Berlusconi, risponde «Magari!», conscio di quanta strada potrebbe fare non solo la figlia, ma tutta la famiglia con lei, contando sull'appoggio del potentato.

È quello che ascrive ad invidia il disprezzo di chi Berlusconi non lo venera, non riuscendosi a capacitare del fatto che si possa essere disgustati dalla disonestà e dalla sciatteria dell'individuo e di tutto ciò che lo circonda, piuttosto che desiderare di emularlo.

È quello che crede di beneficiare dall'“effetto Berlusconi”, senza rendersi conto di quanto il disastro culturale, politico (nazionale ed internazionale), sociale, morale e giuridico in cui è stata affossata l'Italia sia dannoso per lui come per tutti.

Il sostenitore credulone, per contro, è quello che subisce le campagne disinformative su cui Berlusconi ha costruito la propria immagine. È quello che crede alle città più sicure perché in televisione si smette di parlare di problemi di sicurezza quando c'è lui al governo, è quello che crede alla teoria del complotto giudiziario perché non ne conosce la storia e non comprende la differenza tra prescrizione ed assoluzione, è quello che nel peggiore dei casi dice che Berlusconi non è cattivo, anzi è talmente buono e si fida tanto che la gente cattiva se ne approfitta e lui ci va di mezzo.

La fede di questi ultimi è incrollabile, e ricorda il caso (di cui parlarono ad esempio Le Iene) del prete documentatamente stupratore difeso dal paese perché «è un sant'uomo! voi non potete capire!»

I due profili non sono ovviamente distinti: un sagace ad esempio può comunque credere al Berlusconi liberale che ci protegge dai comunisti, anche quando a conti fatti il cosiddetto centrosinistra ha avuto più iniziative da destra liberale del centrodestra.

Ma la cosa più interessante dei creduloni è che, anche ammettendo che Berlusconi sia un uomo talmente buono da lasciarsi infinocchiare da sciami di sanguisughe e sciacalli, rimane comunque qualcuno cui solo un suicida affiderebbe la guida della propria nazione.

  1. si parla ovviamente delle intercettazioni e della loro utilità contro la criminalità organizata e la pedofilia. ↩

  2. discorso a parte meriterebbe l'ipocrisia del definire “democratico” un impianto che distrugge due dei pilatri fondamentali di una democrazia sana (informazione e separazione dei poteri) con il controllo dei mezzi di comunicazione e la sottomissione del potere giudiziario a quello esecutivo. ↩

  3. Chiesa sull'ipocrisia della quale si potrebbero spendere infinità di parole, partendo ad esempio dalla ‘sorpresa’ del Papa Benedetto XVI alla scoperta della diffusione del fenomeno della pedofilia tra i ranghi dei preti, fenomeno che egli stesso, quando ancora semplicemente Ratzinger, contribuì pesantemente ad insabbiare piuttosto che risolvere. ↩

  4. ricorda un po' la questione del nazismo e dei campi di sterminio: sono peggio quelli che “l'Olocausto non è mai accaduto, è un'invenzione degli Alleati per discreditare l'Asse”, o quelli che “peccato che i nazisti non siano riusciti a finire l'opera di pulizia?” ↩

  5. la situazione si complica quando esistono che proibiscono certi tipi di relazioni tra adulti consenzienti; è il caso ad esempio del sesso anale proibito per legge in alcuni degli Stati Uniti. ↩

  6. come è successo per esempio con Marrazzo, caduto in una trappola ricattatoria costruita sul suo vizio di andare a transessuali. ↩

  7. tipo gli investimenti di Berlusconi nel gas, accompagnati da ‘vantaggiosi’ trattati con cui l'ENI compra a prezzo bloccato in un momento in cui il prezzo del gas crolla vertiginosamente. ↩

Cosmiche divergenze, libero arbitrio e coscienza

Una visione forte della scienza parte dal presupposto che l'intero universo (o almeno la sua parte fenomenica, quella da noi osservabile, direttamente o indirettamente) segua leggi ben precise, e si pone come obiettivo quella di arrivare a conoscere dette leggi. (Con il piccolo inconveniente che non è detto che tali leggi siano conoscibili dall'uomo.)

Per inciso esiste anche una visione più debole della scienza che invece si ‘accontenta’ di trovare modelli che descrivano l'universo, senza da questo trarre conclusioni ontologiche sulla natura dell'universo stesso (dopo tutto, la mappa non è il territorio): una sottile differenza concettuale che si manifesta più nei dibattiti filosofici che nella pratica.

Le leggi presupposte a fondamento dell'universo vengono generalmente assunte deterministiche, con alcune implicazioni interessanti. Ad esempio, se fosse nota con esattezza la configurazione dell'universo intero in suo qualunque istante, e fossero note (nuovamente con esattezza) le sue (deterministiche) leggi, sarebbe possibile determinare la configurazione dell'universo in ogni altro istante.

Tra le altre cose, questo esclude la possibilità dell'esistenza di enti sovrannaturali, o quantomeno la possibilità che essi possano manifestarsi nel fenomenico: se infatti tali enti sovrannaturali (quindi: non iscrivibili all'interno delle presunte deterministiche leggi cosmiche) potessero intervenire nel fenomenico, esisterebbero tempi e/o luoghi in cui l'universo non seguirebbe (in virtù appunto della manifestazione di tali enti) le suddette deterministiche leggi cosmiche.

Il presunto determinismo delle presunte leggi dell'universo esclude però qualcosa che ci tocca molto più da vicino: il libero arbitrio. Se ogni istante dell'universo può essere dedotto da ogni suo istante precedente o successivo, è evidente che non c'è alcunché che noi si possa fare per alterare il corso degli eventi —in effetti, non c'è alcunché che noi si possa fare, per il semplice fatto che il nostro agire non è frutto di attività cosciente o subcosciente, ma è un semplice passo della normale evoluzione del cosmo lungo le proprie leggi; ogni cosa che ci riguarda, inclusa la nostra coscienza, i nostri pensieri, sono semplici illusioni frutto della particolare configurazione del cosmo negli istanti e nei luoghi in cui ci ritroviamo —persino il ritrovarci, in effetti, è una questione puramente incidentale ed illusoria.

Un dubbio che mi piacerebbe sciogliere è se, nel combattere l'interpretazione di Copenaghen della meccanica quantistica, Einstein et al. fossero coscienti della portata delle implicazioni di una asserzione quale «Dio non gioca a dadi», con alcuni simpatici paradossi che ne derivano. Tipo: se non gioca a dadi, Dio non esiste. Oppure: senza libero arbitrio, perché scrivere una lettera a Roosevelt per invitarlo ad accelerare la ricerca sul nucleare, visto che la lettera non avrebbe alterato il corso degli eventi1?

La meccanica quantistica è invero una delle più stimolanti branche della fisica, sollevando problemi non indifferenti persino quando ci si voglia limitare ad un suo uso debole (shut up and calculate), senza scivolare nelle disquisizioni ontologiche legate al cercare di interpretare la natura incerta e probabilistica del modello.

Quando si sceglie invece un approccio forte, ci si trova davanti a possibilità che possono risultare sgradevoli per motivi diversi; da un lato, la succitata interpretazione di Copenaghen afferma che la probabilistica incertezza associata ai fenomeni quantici è intrinseca nella natura dell'universo, e contribuisce così alla distruzione del sogno positivista del determinismo delle leggi su cui la natura è fondata; dall'altro, interpretazioni quali quella delle variabili nascoste riportano alla ribalta l'illusiorietà della coscienza e del libero arbitrio.

L'aspetto interessante dell'interpretazione di Copenaghen è che pur essendo scientificamente forte (nel senso di passare dal modello ad una questione ontologica), con la perdita del determinismo riammette la possibilità di ciò che il determinismo escludeva2. Possibilità, ovviamente, che è ben lontana dall'essere una prova, e che potrebbe in realtà essere nient'altro che uno spostamento da un'illusione cristallizata nel tempo ad una che istante per istante dipenda dal caso.

La più trascurata delle interpretazioni della meccanica quantistica è forse la più interessante dal punto di vista filosofico. Benché essa ‘goda’ di un alone di scarsa serietà in ambito scientifico (forse per via della palatabilità per la letteratura fantascientifica e parascientifica), l'interpretazione è ben fondata sulle radici matematiche dell'incertezza della meccanica quantistica e ne trova una soluzione non probabilistica senza ricorrere a veli di maya.

I drammi interpretativi della meccanisa quantistica nascono da due concetti, uno molto semplice ed intuitivo, l'altro alquanto paradossale (nel senso di non intuitiva comprensione). Il concetto molto semplice è quello di osservazione (generalmente una misura); l'altro, per il quale è diventato famoso il gatto di Schrödinger, è quello della sovrapposizione di stati, condizione in cui si ritrova ogni sistema che possa trovarsi in più di uno stato finché non viene osservato. L'osservazione causa il cosiddetto “collasso della funzione d'onda” del sistema, fissandone lo stato in maniera univoca, ed i contrasti tra le interpretazioni sorgono tutti dal tentare di dare un significato alla condizione di sovrapposizione di stati ed al ruolo dell'osservazione (e quindi dell'osservatore) nella sua determinazione.

Quercetti Rami Se si lascia il concetto di sovrapposizione di stati tale e quale, senza farlo diventare un concetto probabilistico e senza supporre che la presunta sovrapposizione sia semplicemente dovuta alla nostra ignoranza, si scivola verso quella che viene comunemente chiamata interpretazione a molti mondi, secondo cui l'universo esiste in una sovrapposizione di stati e l'osservazione che ne determina uno non esclude dall'esistenza le osservazioni che ne determinano gli altri, ma si separa da esse con una divergenza, una biforcazione della realtà come da noi comunemente intesa, che le isola irrimediabilmente, in un infinito gioco di Rami.

L'aspetto interessante di questa interpretazione è che essa non elimina il determinismo, e pur conservando l'incertezza che caratterizza la meccanica quantistica, in un certo senso la sposta sulle spalle dell'osservatore; l'incertezza non è più su “in quale stato si trova il sistema prima dell'osservazione?”, ma diventa “in quale ramo della biforcazione si trova l'osservatore dopo l'osservazione?”

In realtà la domanda cesserebbe persino di avere senso, poiché l'osservatore stesso si troverebbe biforcato seguendo entrambi i rami di realtà, senza però poter avere (rullo di tamburi) coscienza che del singolo ramo nel quale può (ri)costruire la propria continuità.

In qualche modo, questo potrebbe spiegare perché, laddove nelle tre direzioni dello spazio abbiamo una mobilità ed una visione in un certo senso complete, nella direzione del tempo abbiamo un verso ‘preferenziale’, rispetto al quale definiamo il futuro (verso cui ci ‘muoviamo’) ed il passato (che possiamo ‘vedere’): una circostanza invece difficilmente inquadrabile per quelle filosofie della scienza che prediligono il determinismo: se la realtà è una scultura prederminata, da cosa avrebbe infatti origine l'illusione dello scorrere del tempo?

Nell'interpretazione dei molti mondi, invece, il verso preferenziale del tempo è determinato dalla struttura delle biforcazioni; benché questo in realtà non cancelli veramente il determinismo, e non possa reintegrare il nostro libero arbitrio, ci permette di formulare qualche scenario ipotetico incompatibile con il marmoreo determinismo delle meccaniche classiche o relativistiche.

Se la nostra coscienza, invece di sdoppiarsi ad ogni biforcazione, proseguisse la propria esistenza in uno solo dei casi, potremmo forse cercare di (pre)vedere il futuro. E se la scelta alle biforcazioni fosse in nostro potere, potremmo parlare di libero arbitrio.

In mancanza di ciò, rimane solo l'illusione di poterci autodeterminare per coloro di noi che in questo istante (ed in questo, in questo, in questo, …) si ritrovano coscienti delle ramificazioni future che avrebbero scelto, ciascuna volta, in base al loro passato.

  1. risposta: perché, in assenza di libero arbitrio, anche Einstein non poteva ‘fare’ altrimenti. ↩

  2. un ente soprannaturale potrebbe infatti manifestarsi influenzando un fenonemeno quantistico che avesse conseguenze macroscopiche. Ugualmente, volontà, coscienza e libero arbitrio della mente umana potrebbero essere ‘nascoste’ nei fenomeni quantistici del nostro cervello: il probabilistico indeterminismo teorico sarebbe così la membrana di transizione tra natura e sovrannaturale, tra fenomenico e metafisico. ↩

Animale, umano/1

Se si guarda con occhio disincatato alle relazioni sociali che gli esseri umani costruiscono, sia su scala microscopica (il singolo individuo in relazione ad altri singoli individui), sia su scala macroscopica (le genti in relazione con altre genti) non è difficile notare i fin troppo evidenti paralleli con analoghe strutture e comportamenti che si riscontrano nel mondo animale.

A seconda della scala della messa a fuoco, del luogo e del tempo analizzato, diventa quindi facile paragonare i nuclei umani ora al formicaio, ora al branco di canidi, ora al gregge di ovini, ora a questo o quel volatile. In effetti, benché non credo si possano ritrovare tutti i comportamenti umani in quelli di una singola altra specie, mi viene molto difficile non trovare, per un qualsiasi comportamento umano, un altro animale in cui lo si riscontri1.

A ben pensarci, mi viene in mente un unico comportamento per il quale non riesco a trovare riscontri al di fuori degli esseri umani, ed è il caso del sadismo nei confronti di membri della propria specie, dove per sadismo si intenda il (‘gratuito’) procurare dolore ad altri (della propria specie) per il proprio piacere: non rientrerebbero quindi in questa categoria né le aggressioni ‘territoriali’ abbontantemente diffuse nel regno animale, né quei ‘giochi alimentari’ di cui si dilettano ad esempio i felini domestici.

Si potrebbe osservare che allo stesso modo anche le capacità artistiche dell'uomo sono uniche in natura, non essendo confrontabili con, ad esempio, i canti degli uccelli o le danze per l'accoppiamento, la cui somiglianza con gli omonimi umani sarebbe più che altro lessicale, e forse solo appena vagamente fenomenica, ma che certo confonde atti creativi (dell'uomo) con atti istintivi (dell'animale).

Avremmo quindi che per distinguere (il comportamento del)l'uomo dal (comportamento del) (resto del) regno animale è opportuno, anzi forse necessario, ‘trascendere’ dal mero fenomeno, dall'osservabile, ed andare a studiare le cause di tali comportamenti, i loro motori, impulsi, motivazioni, emozioni, pensiero, istinto, etc. A distinguere l'uomo sarebbero allora certe sue funzioni (spesso dette ‘superiori’) quali razionalità, arbitrio, capacità d'astrazione; o certe sue caratteristiche ancora più astratte, metafisiche, spirituali.

Ma cosa ci può portare a sostenere di avere effettivamente tali doti o caratteristiche? Ed in secondo luogo: cosa ci può portare a sostenere che esse siano nostra prerogativa, che esse ci contraddistinguano?

Se l'unico modo per trovare o provare o scoprire queste nostre doti o caratteristiche è frutto vuoi di meditazione, vuoi di introspezione, vuoi di qualunque altra via interiore o comunque non (fenomenicamente) manifesta, se non vi è quindi alcuna possibilità esteriore di verificarne l'esistenza, non avremmo nulla per sostenere che esse siano proprie solo degli esseri umani —ed in verità non potremmo sostenere nemmeno che esse siano proprie di tutti gli esseri umani: non le potremmo dedurre in alcun altro essere che in noi stessi, per riconoscerle in altri solo proiettando questa conoscenza interiore (e sorvolando sulla possibilità che sia ingannevole) di noi stessi sui nostri simili.

Ma anche ammesso che questa conoscenza di noi stessi, di ciò che ci rende “non dei semplici animali”, si possa correttamente estrapolare ai nostri simili (quali simili, peraltro?), se le nostre precipue caratteristiche che ci distinguono sono esclusivamente interiori, se non si manifestano, gli esseri umani potrebbero essere tranquillamente sostituiti da “semplici animali” che si comportino allo stesso modo e nessuno noterebbe la differenza.

E allora siamo o non siamo ‘semplicemente’ degli animali? Se non lo siamo, da cosa lo si capisce?

  1. La differenza tra il ritrovare tutti i comportamenti in una singola altra specie e poter determinare, per ciascun comportamento, una specie in cui lo si ritrovi, benché sottile, è tutt'altro che trascurabile. ↩

Inganni esteriori, inganni interiori

L'imperfezione dei nostri sensi viene spesso ricordata per sostenere che ciò che conosciamo attraverso essi può non essere vero (o Vero). D'altra parte, non è difficile sostenere che i nostri sensi ci ingannano: è fin troppo facile portare avanti esempi, dai trompe l'œil agli arti fantasma, di illusioni per ogni senso.

In genere questo viene evidenziato quando si vuole proporre altri modi di conoscere, modi che, non essendo legati dagli ingannevoli limiti sensoriali, possono avvicinarci meglio alla verità (o alla Verità). Esempi di queste ricerche della Verità oltre il sensibile si trovano ovunque, dal misticismo a gran parte delle religioni; persino in angoli sperduti (e non) della letteratura:

On ne voit bien qu'avec le cœur. L'essentiel est invisible pour les yeux.

Non vediamo bene che con il cuore. L'essenziale è invisibile agli occhi.

Al sano e motivato scetticismo nei confronti del sensoriale e della facilmente fallace ed ingannevole conoscenza che ne deriva, per qualche motivo, non fa tuttavia controparte un equivalente scetticismo nei confronti delle altre forme di conoscenza. È forse sufficiente che la conoscenza abbia un'origine più interiore e/o trascendente e/o non derivante dai fallaci sensi, perché essa sia (già solo per questo?) più affidabile? Su quale base una conoscenza non sensibile dovrebbe essere di per sé più Vera di una sensibile?

Nel caso della conoscenza sensibile, fenomenica, noi sappiamo di poter andare incontro ad illusioni ed inganni. Cosa possiamo dire delle altre forme di conoscenza? Senza arrivare al falsificazionismo popperiano, siamo sicuri di non stare facendo un passo azzardato dal non sapere se la conoscenza (non sensibile) è ingannevole al ritenere che non lo sia?

Siamo sicuri che la conoscenza non sensibile non sia (o quanto meno: possa essere) ingannevole quanto quella sensibile? E se invece lo è, quali sono gli strumenti con cui possiamo discernere quando un'esperienza non fenomenica ci illustri qualcosa di Vero da quando essa ci manifesti un illusorio Inganno? Dopo tutto

I used to think that the brain was the most wonderful organ in my body. Then I realized who was telling me this.

Un tempo pensavo che il cervello fosse l'organo più meraviglioso del mio corpo. Poi mi sono accorto di chi me lo diceva.

Emo Philips
Incomprensioni di genere

Scena #1

Lei e la sua migliore amica offrono a lui un rapporto a tre una tantum: offerta unica e irripetibile.

«State scherzando.» «No.» «Mi state mettendo alla prova.» «No.» Lui ci pensa un attimo, quindi rifiuta.

Lei è contenta perché lui ha superato il test (in realtà era un test e il rapporto a tre non ci sarebbe stato anche se lui avesse accettato).

Lui in realtà ha rifiutato principalmente perché se anche non fosse stato un test, e se anche il rapporto a tre fosse stato quell'esperienza idilliaca ed insuperabile che generalmente è nell'immaginario erotico maschile, il fatto che la situazione non si sarebbe più ripetuta non avrebbe fatto altro che rovinare irrimediabilmente il più usuale sesso di coppia.

Scena #2

Lui la invita a vedere la sua collezione di farfalle. Cosa alquanto inusuale e curiosa: chi fa più collezione di farfalle? È abbastanza evidentemente un attracco, ma lei accetta lo stesso, per curiosità.

La collezione è un album di fotografile stile l'Origine du monde delle varie donne con cui l'uomo ha avuto rapporti sessuali. (Ma da quanto tempo non si usa più ‘farfalla’ per indicare i genitali femminili? Non lo fanno solo i bambini?) Ovviamente, l'uomo propone alla donna di contribuire alla collezione.

Decadenza, fanatismo, fallimento

Vi sono due modi per nascondere il proprio fallimento, anzi per nascondersi al proprio fallimento.

Ci si può arrocare disperatamente e fanaticamente sulle proprie posizioni, con la s(t)olidità di chi si fortifica sempre più selvaggiamente con il progredire dell'erosione della base dello sperone di roccia su cui è fondata la fortezza; oppure ci si può gloriare della propria condizione, ornandola con la retorica della decadenza.

Del primo approccio si trovano esempi correnti nel Glorioso Partito Comunista in Cina come nella Santa Chiesa Cattolica Apostolica Romana, nel governo di Ahmadinejad come nelle tattiche aggressive della RIAA. Il secondo è più adatto su larga scala in certe culture occidentali, soprattutto nella vecchia Europa, anche se non sempre viene scelto con coscienza: evidentemente è qualcosa di innato, o di talmente radicato da venir comunque naturale.

Il crollo del fanatico, quando infine avviene, improvviso benché preannunciato, è qualcosa di rumoroso e violento, esplosivo, spesso con lunghi strascichi e dannosi quanto clamorosi aftershocks; magari persino un «muoia Sansone con tutti i filistei»; sicuramente con reiterati tentativi di ripresa. Dall'altra parte ci si presenta invece come una colata; di fango, inizialmente, poi via via sempre più come un'immensa montagna di letame che si scioglie «come neve al sole; come un'enorme diarrea», dentro la quale c'è chi sguazza lieto di poter ivi nascondere il proprio fallimento, incurante se non persino canzonante nei confronti di tutto ciò e tutti coloro che la loro montagna travolge colando via, forse persino sorpreso che si possa non cogliere il ‘fascino’ della decadenza, quando a loro basta scegliere il nome opportuno per cancellare dal proprio naso l'odore di letame, dalla propria coscienza la portata del disastro.

Nel fanatismo vi è una violenza cieca, ma coerente e quasi sincera: si preferisce ignorare tutti gli eclatanti indizi della fine pur di poter continuare a credere, e più ancora a far credere agli altri, di essere forti, capaci, indistruttibili. Era la scelta dell'Unione Sovietica, la cui fine colse di sorpresa persino gli analisti della CIA. La scelta della decadenza è invece ipocrita: è una resa mascherata da ineluttabilità, è una pretesa di classe, di stile, e quindi ultimamente di superiorità, per mascherare, stavolta a sé stessi prima che agli altri, la propria incapacità, la propria inadeguatezza, i propri limiti. Gli ultimi momenti sul Titanic.

Nella peggiore delle situazioni entrambe le reazioni coagulano nella stessa entità, ente, governo o individuo che sia, che porta quindi la violenza fanatica delle proprie agguerrite menzogne a difesa della montagna di letame con cui travolge tutto ciò che circonda la propria fine.

È purtroppo la situazione in cui ci troviamo in Italia, ben oltre il punto di non ritorno, prima del quale sarebbe stata sufficiente una metodica seppure martellante esposizione dei fatti da contrapporre puntualmente alle continue menzogne, dopo il quale più nulla può far invertire la rotta: un governo di mafiosi, donne che hanno costruito sul commercio del proprio corpo la propria carriera, ladri, corruttori e corrotti, il cui principale se non unico obiettivo è evitare quella giustizia che i loro forcaioli razzisti xenofobi compagni in camicia verde invocarono a suo tempo a gran voce verso quella Roma ladrona e corrotta i cui protetti e discendenti ora emulano ed assistono nella beatificazione dei predecessori contro cui prima si scagliavano.

Una dirompente cultura di clientelismo e corruzione, menzogna ed ipocrisia cresciuta sul fertile terreno della pseudointegrità cattolica piccoloborghese (già propensa alla dissimulazione) come nell'invidia della povertà (già propensa alla compravendita del favore) con un metodico, duraturo ed assillante bombardamento mediatico ed una sostanziosa campagna di favori, senza che nessuno in posizione di potere avesse, ovviamente, voglia né interesse ad impedirlo, a spianare la strada per qualcosa di più ricco e costruttivo; cultura coronata infine nella discesca in campo e conseguente ascesa al potere del suo principale fomentatore (a suo tempo per conto di altri, in cambio di opportuni favori), sulla quale troppe persone hanno potuto approfittarne, o meglio hanno creduto di poterne approfittare, adeguandosi alla nuova etica (che sbandiera il merito e sfrutta la raccomandazione, elogia la famiglia cristiana e vive di tradimenti, divorzi e prostituzione), cercando miseramente di cavalcarla, o semplicemente confrontandocisi per crogiolarsi nella superiorità della differenza: un gesto inutile quanto pericoloso, indice a sua volta di un diverso fallimento, decadendo troppo spesso nel gloriarsi della capacità di “fottere il sistema” (e quindi di fatto cadendoci dentro appieno, essendo quello il vero sistema); ed il tutto mentre l'onda procedeva e procede a distruggere il presente ed il futuro di un'intera nazione, lasciando dietro di sé un terreno fertile non per una sana ricrescita, ma per un inossidabile deserto.

E la portata del crollo è tale ormai che ben pochi riescono ancora anche solo a pensare di poterlo contrastare, o quanto meno di poter agire nonostante il contesto; e se da un lato li ammiro per quello che non riesco a non chiamare coraggio, non posso non pensare che siano degli illusi, e che sia più opportuna la scelta di molti altri, la fuga: verso altri luoghi che forse perché più freddi sono anche meno marci, ed in cui si possa trovare più facilmente un modo per vivere più decentemente non solo dal punto di vista materiale; verso altri pensieri per chi preferisce nascondersi nell'ascetismo, non avendo la forza di affrontare una migrazione.

E per coloro che non riescono né ad adeguarsi, né a prescindere, né a fuggire, cosa rimane?

Subdole rivoluzioni: internet, crisi e potere/2.0 Una nuova speranza

È consuetudine separare due fasi nella rivoluzione industriale, separate dall'avvento di nuovi materiali e dallo sviluppo della (petrol)chimica. Invero, le innovazioni rese possibili dal progresso portano a drastici cambiamenti che giustificano il nome di seconda rivoluzione, un risicato secolo dopo la prima.

Ritengo che sarebbe opportuno separare, allo stesso modo, due momenti in quella che viene considerata attualmente la terza rivoluzione industriale, ovvero in quegli sviluppi della scienza e della tecnica che hanno seguito la seconda guerra mondiale (sviluppi pesantemente alimentati dalla guerra fredda).

L'evento che funge da cardine tra la terza e quella che io definisco quarta rivoluzione industriale è (penso si sia ormai capito) la nascita di Internet.

È indiscutibile che l'home computing ha avuto un significativo impatto industriale, non solo come oggetto di produzione, ma anche come soggetto: pensiamo a come fosse tecnicamente complesso produrre già qualcosa di semplice come volantini e opuscoli ancora negli anni '60 o '70; pensiamo a quanto sia semplice ed economico ora. Persino la produzione di oggetti più sofisticati, libri interi o disco, è ormai alla portata di ‘tutti’. Ed è probabile che l'home computing sarebbe esistito e si sarebbe diffuso anche senza Internet.

Ma è anche indiscutibile che la diffusione di Internet ha dato una spinta non indifferente alla diffusione dell'informatica domestica, dotandola di una potenza comunicativa fino ad allora assolutamente inimmaginabile. Ciò che prima era mirato principalmente allo svolgimento di due attività tra loro opposte quanto incompatibili (giocare e lavorare) diventa con la capacità di collegarsi ad Internet lo strumento per una nuova rivoluzione.

Parlerò quindi della quarta rivoluzione industriale facendo espressamente riferimento ai mutamenti sì industriali, ma soprattutto sociali e culturali, che trovano le loro radici nella universalizzazione dell'informatica, universalizzazione sia come diffusione, sia come capacità di collegare la gente. Ed in questo senso, forse, ciò che differenzia questa rivoluzione dalle altre è proprio l'aspetto culturale.

Vi sarebbero in realtà da fare alcune puntualizzazioni.

La prima riguarda il fatto che ciascuna rivoluzione agisce in maniera diretta su una cerchia sempre più ristretta della popolazione mondiale, con latenze secolari e più nella diffusione, per cui ad esempio nei Paesi occidentali siamo già alla saturazione degli indirizzi Internet (IPv4) quando ancora la maggior parte della popolazione mondiale non ha nemmeno l'acqua corrente (e spesso non bisogna nemmeno andare tanto lontano, basta guardare a certi quartieri di Catania che hanno l'acqua corrente a giorni alterni) o l'elettricità.

Questa precisazione è necessaria per chiarire meglio a cosa, chi, quanti mi riferisca nel dire ‘tutti’ o nel parlare di universalità; anche se, forse troppo ottimisticamente, oserei dire che sia ‘soltanto’ una questione di tempi: quanti anni fa era già speciale, qui da noi, che ci fosse un telefono nel quartiere, piuttosto che almeno uno ciascuno? da quanto tempo è normale che in ciascun appartamento ci sia almeno un televisore? Paesi in cui ancora le altre rivoluzioni non sono arrivate, o sono appena arrivate, seguiranno. Prima o poi. (Da questo punto di vista, peraltro, sono eticamente lodevoli, oltre che significative dal punto di vista tecnologico, iniziative come quella dell'OLPC, che però non può purtroppo definirsi esattamente un successo).

La seconda precisazione riguarda il fatto che nessuna rivoluzione riuscirà mai ad alterare la natura umana (benché non escludo che possa porvi fine, che sia con l'autodistruzione o anche piuttosto invece con la transizione a qualcosa che umano non possa più dirsi); è però vero che le varie rivoluzioni ne hanno stimolato, e ne stimolano, aspetti diversi (e qui se volete potete discutere a vostro piacimento di cosa esattamente sia la natura umana e quanto l'alterazione di questo o quell'aspetto la trasformi in altro o la lasci comunque sé stessa). E quali sono i fulcri del mutamento della quarta rivoluzione industriale?

Comunione e liberazione.

Beninteso, non si parla qui di quegli integralisti cattolici per i quali la Parola di don Giussani è più importante di quella del Vangelo. Al più, volendo rimanere in argomento, ci si può orientare verso i cardini del messaggio originale del cristianesimo (di cui ho già parlato da un punto di vista evolutivo).

Volendoci spogliare invece di ogni riferimento religioso, si potrebbe pensare al comunismo anarchico, che però ne darebbe una connotazione ideologica e sociopolitica che —ed è questa una delle sue onde portanti— è in realtà profondamente assente dalla quarta rivoluzione. Proprio questo ha permesso infatti ad Internet (ed alla sua cultura) di diffondersi tanto rapidamente, tanto capillarmente, anche quando draconiane misure censorie ne hanno severamente limitato l'uso (come ad esempio in Cina), senza riuscire ad alterarne la natura.

Ed è per questo che la quarta rivoluzione industriale è inarrestabilmente indirizzata verso ciò che ogni altra rivoluzione prometteva, mancando metodicamente di realizzare.

Subdole rivoluzioni: internet, crisi e potere/1.0 Le rivoluzioni fallite

Le prime rivoluzioni industriali hanno fallito da molti punti di vista. Lasciando perdere, almeno per il momento, le opinioni di conservatori, reazionari e luddisti, mi piacerebbe soffermarmi in particolare sulle motivazioni che possono far considerare l'industrializzazione un fallimento anche da un punto di vista progressista.

In un'avventura di Jeff Hawke (credo fosse “The Intelligent Ones”, H3847-H3896, ma dovrei controllare) volatili extraterresti giungono sul pianeta Terra nella loro missione per svelare al Cosmo il segreto dell'uccellità. Dopo sorprese ed incidenti diplomatici intergalattici, gli alieni ripartono lasciando al protagonista (solo, perché l'unico che si è dimostrato meritevole) ciò che permette di liberarsi dal lavoro: un'incubatrice per uova.

Al di là dell'assoluta inutilità di quel particolare strumento per Jeff Hawke in particolare, e per tutta la specie umana in generale, l'interesse per sollevare una intera specie da una forzosa necessità che ne occupava la maggior parte del tempo era forse ciò che rendeva alieni gli extraterrestri: forse ben più che non il loro aspetto noctorapace. E benché il tipo di lavoro nel fumetto fosse ben diverso dal lavoro manuale dell'operaio, quello che la rivoluzione industriale avrebbe potuto fare sarebbe stato proprio il cancellare la necessità del lavoro.

Purtroppo, se la prima rivoluzione industriale ha reso tecnicamente superfluo il lavoro di molti, ciò non è stato accompagnato da una rivoluzione culturale, sociale e forse soprattutto economica che giustificasse ed accettasse questa ridondanza. In tal senso, i luddisti identificarono correttamente la causa più immediatamente pratica del “problema” disoccupazione, ma non riuscirono ad andare oltre la visione di tale situazione come “problema”; persino le successive analisi che portarono a tenativi di rivoluzione delle strutture sociali (più o meno fallite) rimasero comunque ancorate a quella visione dell'economia legata alla produzione che è la causa stessa, in un certo senso, del concetto di disoccupazione come modernamente inteso.

Paradossalmente, quindi, a quella rivoluzione industriale che avrebbe potuto rendere superfluo il lavoro si sono associati mutamenti economici e sociali che ne hanno invece ingigantito la necessità. È su questo tema che verte il famoso aneddoto del turista americano e del pescatore messicano:

Un turista americano, sul molo in un piccolo villagio costiero messicano, assiste all'attracco di una piccola barca con a bordo un pescatore locale. Mentre il pescatore scarica i tonni albacora che ha pescato, il turista si avvicina e lo complimenta per il pescato, domandando poi quanto tempo abbia impiegato a prenderli.

«Non molto.» risponde il messicano.

«Perché non stai fuori ancora per prendere più pesce, allora?»

«Questo è più che sufficiente per sostenere la mia famiglia.»

«E cosa fai con il resto del tuo tempo?»

«Mi sveglio tardi la mattina, vado un po' a pesca, gioco con i miei bambini, faccio siesta con mia moglie, Maria, poi la sera scendo al villaggio dove bevo un bicchiere di vino e suono la chitarra con i miei amici. Ho una vita piena.» racconta il messicano.

Il turista, sardonico: «Ah, posso aiutarti. Dovresti spendere più tempo a pescare; con il ricavo potrai prendere una barca più grossa, e poi forse più d'una: arriveresti ad avere un'intera flotta di pescherecci. Invece di vendere il pescato ad un intermediario potresti venderli direttamente all'industria di lavorazione del pesce; persino aprire la tua propria industria, alla fine. Controlleresti tutta la linea, produzione, lavorazione, distribuzione. Potresti lasciare questo villaggio di pescatori, spostarti a Città del Messico, quindi a Los Angeles, o anche New York, e da lì dirigere questa impresa sempre più grande.»

Ed il messicano chiede: «Ma quanto mi ci vorrebbe?»

«Oh, 15, 20 anni forse.»

«E poi?»

«Oh, questa è la parte migliore!» esulta il turista «Al momento giusto trasformi la compagnia in una società per azioni, vendi tutto, e diventi ricco, faresti milioni.»

«Milioni? … e poi?»

«E a questo punto potresti anche andare in pensione, trasferirti in un piccolo villaggio di pescatori dove poter dormire fino a tardi, giocare coi bambini, fare la siesta con tua moglie, scendere al villaggio la sera per bere un bicchiere di vino e suonare la chittara con i tuoi amici.»

(D'altra parte, l'ingigantimento del bisogno di lavorare associato alla riduzione della necessità di farlo non è certo l'unico paradosso dell'economia capitalista che con l'industrializazione è legata a doppio filo: pensiamo alla ‘bontà’ di una (piccola) inflazione; alla generazione di bisogni fittizi e la conseguente corsa all'insoddisfazione; o all'andamento in Borsa del titolo di un'azienda, al suo sostanziale prescindere da valutazioni oggettive del suo valore ed al suo essere legato alla percezione del suo futuro, con facili manipolazioni di massa —verso l'alto e verso il basso; o alla produzione di cibo in quantità tali da richiedere la sua distruzione per mantenerlo commercialmente conveniente, pur con intere nazioni che muoiono di fame. Ed in un diverso momento non mi dispiacerebbe indagare su motivazioni ed origini per questo purtropo fondamentale aspetto delle società contemporanee.)

Subdole rivoluzioni: internet, crisi e potere/0.2 Il tema

Il termine ‘informatica’ nasce come crasi di ‘informazione’ ed ‘automatica’: spesso indicata con IT (Information Technology, Tecnologia dell'Informazione), l'informatica rappresenta infatti la possibilità di gestire, in maniera automatizzata e quindi con un ridotto intervento umano, grandi quantità di informazioni. I cardini dell'informatica sono quindi la possibilità di raccogliere grandi quantità di dati, e la possibilità di elaborarli. L'indirizzo di sviluppo preso dagli elaboratori elettronici (volgarmente detti computer, e che in fondo non sono altro che calcolatrici molto complesse) ha dettato poi in particolar modo che questi cardini si realizzassero innanzi tutto con il meccanismo della digitalizzazione, ovvero la trasformazione di qualunque tipo di informazione in numeri; e la prima, forse la più importante conseguenza di questo è stata la replicabilità infinita: l'informazione digitale può essere replicata innumerevoli volte senza che vi sia perdita d'informazione1.

Ma la terza rivoluzione industriale ha portato con sé qualcosa di inatteso, imprevedibile, rivoluzionario: internet. Ed è un po' di questo che vorrei parlare, cercando di evidenziare alcuni punti che pur non riuscendo a descrivere completamente la vastità dell'impatto che ha avuto la possibilità di collegare tra di loro tutti i computer del mondo, ne possano far emergere alcuni aspetti. E se possibile, cercherò di indicare qualcuna delle potenzialità ancora inespresse di questo strumento.

Internet è una raccolta di metodi e mezzi di comunicazione tra computer: è quindi, sostanzialmente, uno strumento per scambiare informazioni, nel senso più generico del termine. Internet, come in generale la tecnologia, viene criticata per la sua capacità di alienare le persone dai rapporti sociali ‘diretti’; tuttavia, internet permette al contempo la creazione di nuovi rapporti sociali, con strutture e di natura molto diverse, sia tra di loro sia dai rapporti reali. E l'isolamento materiale cui può portare internet ha come controparte la possibilità di far uscire dall'isolamento chi altrimenti vi si troverebbe, per il contesto (reale) ostile in cui vive o per qualunque altro motivo. Comunità che non potrebbero esistere per le grandi distanze materiali che separerebbero i membri diventano improvvisamente possibili in ‘luoghi’ virtuali.

Ma soprattutto internet è il Luogo dell'Informazione.

Fino all'avvento su larga scala del cosiddetto Web 2.0, le pagine web erano fonti sostanzialmente statiche d'informazione, in mano ad un numero relativamente ristretto di persone, fruibili secondo canoni non molto dissimili da quelli dell'informazione nel mondo reale; i newsgroup su Usenet ed i canali tematici su [[!wpi Internet Relay Chat desc=IRC]] sono stati i luoghi dove sono nati i paradigmi di una fruizione molto più dinamica ed attiva dell'informazione.

La diffusione dei blog, delle wiki, dei forum, del social networking ha portato questo nuovo paradigma alla ribalta: chiunque2 (può) genera(re) informazione, e chiunque2 ne può usufruire. L'utente non è più un consumatore, fruitore passivo, ma un prossumatore, fruitore attivo che produce oltre a consumare.

Un altro aspetto sorprendente di internet è la rapidità con cui questi nuovi concetti, questi nuovi modi di vivere e di pensare si diffondono; se le precedenti rivoluzioni industriali avevano accorciato drasticamente i tempi di trasporto di persone ed oggetti, la terza rivoluzione industriale ha praticamente annullato i tempi di trasporto di informazioni ed idee: ma fuori da ogni aspettativa, ne ha anche accorciato i tempi di assimilazione.

Una delle motivazioni di questa sua capacità è da cercare sicuramente nella struttura che internet è riuscita finora a mantenere: una struttura che nella sua forma nativa, originale è sostanzialmente anarchica, incontrolllata se non addirittura incontrollabile. E proprio questo la rende sempre più una pericolosissima minaccia per il potere; e proprio per questo motivo essa è sempre più oggetto di attacchi ed aggressioni che mirano ad eliminarne tutte quelle caratteristiche che ne hanno decretato il successo.

Per inciso, non solo i tradizionali poteri politici trovano in internet un pericoloso nemico: anche più subdoli, ma non per questo meno aggressivi, poteri economici di vario genere si trovano a dover combattere con la rivoluzione culturale che internet ha alimentato. Molti dei grandi imperi economici che hanno costruito la loro fortuna su un sostanziale monopolio dei canali di comunicazione e distribuzione si scoprono improvvisamente superflui.

Ad esempio, la produzione in studio di un disco musicale, la creazione dei vinili, la loro distribuzione, sono (erano) processi effettivamente costosi che possono (potevano) giustificare le £20.000 del costo dell'oggetto. La maggiore semplicità di produzione ed il più ridotto costo della materia prima rende molto più sospetti i 20€ del compact disc, anche considerando l'inflazione. E quando si arriva alla distribuzione elettronica, viene da chiedersi dove vadano i $10 dell'album comprato online.

Non a caso la proposta di legge censoria proposta dalla Carlucci (che casca così almeno per la seconda volta nell'errore di prestare faccia ad argomenti evidentemente ben al di fuori della sua comprensione) è stata redatta in realtà dal presidente di Univideo (un blog a caso che ne parla), molto più interessato alle violazioni del copyright che non alla pedofilia (la scusa universale per far passare qualunque porcata: il più immondo insulto per chi veramente è stato vittima di abusi sessuali).

L'archetipo della censura di internet è sicuramente la Cina, che con la sua Muraglia Elettronica impedisce ai cinesi di visitare siti locali e stranieri ‘pericolosi’, ‘sediziosi’, ‘terroristici’ (guai a parlare di piazza Tiananmen o della questione tibetana). Ma quanti italiani sanno che simili meccanismi di censura sono da tempo in opera anche in Italia, già da prima dell'emendamento D'Alia? Io l'ho scoperto quando il meccanismo (ufficialmente utilizzato, poco efficacemente peraltro, per bloccare presunti siti pedopornografici ed i siti di gioco d'azzardo che non hanno accordi fiscali con l'Italia) venne utilizzato per bloccare The Pirate Bay (un motore di ricerca per BitTorrent che, come tutti i motori di ricerca, indicizza anche materiale protetto da copyright e distribuito illegalmente), sollevando un notevole polverone in molti ambienti.

In questo modo il potere politico si manifesta per l'ennesima volta alleato (perché stavolta non è più semplicemente succube del lobbying, avendo ben motivo di temere e necessità di difendersi dalla grave minaccia dell'informazione libera) di altri forti poteri economici, costruiti su privilegi non più giustificabili nei nuovi scenari tecnologici. E se con la crassa ignoranza che contraddistingue i nostri uomini di potere in Italia si assiste solo a dei patetici (ma non per questo meno pericolosi) attacchi censori, nei più scafati e sofisticati ambienti del potere mediatico statunitense si tenta di uccidere la neutralità di internet cercando di forzarla in quei meccanismi selettivi che contraddistinguono le reti televisive via cavo (un mondo che, con i vantaggi e svantaggi del caso, da noi è arrivato tardi e male).

Ma nonostante lo sfacelo e la decadenza che vedo intorno a me, nonostante l'incalzare degli attacchi, ci sono segni e segnali che mi fanno sperare che internet possa ancora resistere, e forse persino salvarsi, evolvendo nel peggiore dei casi in qualcosa di ancora più inattaccabile.

  1. vero nella realtà solo entro certi limiti estremamente vasti ↩

  2. abbia accesso ad internet. ↩  ↩

Subdole rivoluzioni: internet, crisi e potere/0.1 Introduzione

Una piccola digressione.

C'è chi vede nella crisi che stiamo vivendo il (da certuni tanto atteso) crollo dell'ideologia capitalista: una descrizione che pur nel suo essere tragicamente riduttiva riesce comunque a sottolinearne un aspetto1. È interessante osservare come questo aspetto della crisi stia stato violentemente accelerato dal fallimento delle grandi esperienze comuniste (Cina e blocco sovietico) che, con la loro transizione ad un capitalismo molto meno controllato e quindi più vicino a quello teorico di quanto non lo sia (soprattutto ormai) il capitalismo occidentale, hanno inondato un mercato già saturo con manodopera e merci sottocosto per gli standard occidentali: il colpo di grazia per il già impossibile bilico su cui era fondata la finanza ad alto rischio che con il proprio crollo ha finalmente portato la crisi sui giornali: e molto si potrebbe dire sul modo in cui l'informazione è stata pubblicata, e molto di più ancora si potrebbe dire su quello che si cerca di fare per ‘fermare’ la crisi (o forse sarebbe più opportuno dire: quello che si fa utilizzando la crisi come scusa).

È anche interessante notare che il Paese europeo maggiormente colpito dalla crisi è stato (almeno finora) l'Irlanda, nazione che giusto nell'ultimo decennio del secolo scorso era riuscita ad assurgere a seconda potenza economica europea grazie anche ad una politica di levità fiscale mirata ad attirare investimenti esteri (sui contributi della Comunità Europea non si sa bene se abbiano fatto bene o male: ovviamente i libertari sostengono che abbiano fatto più male che bene, nonostante il loro riuscito investimento nelle infrastrutture che sarebbero altrimenti collassate sotto la grande espansione); per contro, i meno colpiti sono i soliti Paesi socialisti della regione baltico-scandinava2.

La crisi ha colpito un po' tutti i settori, primo fra tutti quello bancario e finanziario, quel campo trasversale che gestisce i capitali che alimentano tutti gli altri settori; ed anche nelle piccole finanze domestiche il dramma s'è fatto sentire: con tutto l'ottimismo del mondo, se i soldi non arrivano a fine mese non ci arrivano, e divenire oculati negli acquisti diventa una necessità, non più una scelta. Per essere più ottimisti bisognerebbe avere più soldi, o almeno qualche forma di garanzia della possibilità di averli: niente posto, niente soldi, niente acquisti; niente posto fisso, niente garanzie, niente prestiti.

Sembrerebbe che ormai persino i più accaniti difensori dell'aumento della produttività (come se il produrre di più a meno aumentasse la disponibilità economica della larga parte degli acquirenti, o risolvesse il problema della saturazione del mercato) si stiano rendendo conto che il vero problema è la drastica riduzione del potere d'acquisto; ma ovviamente non c'è da sperare che soluzioni opportune vengano proposte e men che mai attuate, visto che l'idea di ridistribuire piuttosto che accentrare le risorse economiche va contro tutti i principî fondanti su cui è cresciuta la classe dirigente (economica, industriale e politica) italiana e non solo (ricordiamo ad esempio i manager che si alzano lo stipendio anche quando la loro azienda corre verso il fallimento). E nonostante dovrebbe ormai essere evidente a tutti che questo tipo di approccio è tuttaltro che salvifico per la situazione generale, ben poco invita a credere che l'atteggiamento cambierà: non è purtroppo solo a Catania che imperversa la mentalità del perseverare nell'errore anche quando è evidente che sarebbe opportuno provare strade alternative.

(Anzi, devo dire che in tal senso la recente proposta di alcuni parlamentari del PD di devolvere il 25% del loro stipendio ad un fondo per disoccupati (che porterebbe fino a 6 milioni di euro al mese, che sono più di seimila indennità di disoccupazione) è stata una sorpresa: bazzecole inadeguate, ma comunque una manifestazione, un segnale nella giusta direzione. Certo l'idea non è buona come certe mie idee in tal senso, tipo l'equiparazione del parlamentare a, con tutte le conseguenze del caso; e stipendio a questi dipendenti pubblici a tempo determinato fissato per referendum. Ma tutto considerato è purtroppo il meglio che ci si può aspettare dall'attuale nostra classe politica.)

Benché la cosa possa apparire abbastanza scollegata dal resto, vorrei però concentrarmi su un settore che ha sempre avuto un comportamento molto anomalo rispetto ai flussi e riflussi dell'economia, un settore a cui sono da tempo attratto per altri motivi, ma che per questi suoi bizzarri andamenti (ma non solo) è molto più interessante da osservare: quello dell'informatica, nei suoi aspetti più (hardware) e meno (software) concreti. Questo pilastro della terza rivoluzione industriale, in un contesto come quello attuale, ha cose molto interessanti da dire, a saperlo ascoltare; ha interessanti prospettive da mostrare; e forse persino qualche speranza da apprire.

  1. koan: Shuzan alzò il suo corto bastone e disse: “Se questo lo chiamate un bastone corto, vi opponete alla sua realtà. Se non lo chiamate un bastone corto, ignorate il fatto. Orbene, come volete chiamarlo?” ↩

  2. in realtà forse il caso dell'Islanda è forse più tragico e grottesco di quello dell'Irlanda ↩

Subdole rivoluzioni: internet, crisi e potere/0.0 Prologo

Si parla ormai apertamente di crisi (anche troppo apertamente, secondo certuni). La crisi porta con sé incertezze e paure, in primis quella di perdere quei privilegi, quei beneficî cui ci si è abituati al punto da ritenerli imprescindibili diritti; e molto si potrebbe dire di come la paura sposti la gente a destra: non a caso le campagne mediatiche di quelle parti politiche, vicino e lontano dalle elezioni, sono sempre incentrate sulla paura, facilmente pilotabile verso un Nemico o l'Altro secondo l'opportunità del momento (ebrei, comunisti, extracomunitari, albanesi, pedofili, arabi, mussulmani, rumeni1 talibani2, rom1 … un grande potpourri in cui non è nemmeno importante capire bene di cosa si sta parlando); e si potrebbe parlare di quanto sia quindi importante non eliminare mai le cause reali dei problemi, in modo che il gregge accetti supinamente ordinamenti sempre più draconiani e restrittivi la cui unica vera mira è quella di aumentare il controllo sulla popolazione permettendo al potere di mantenersi.

Ad esempio, nessuno si domanda quanto sia paradossale che nonostante la salita al potere del governo Berlusconi IV, l'affiancamento dell'esercito alle forze di polizia, l'elezione di Alemanno a sindaco di Roma —ricordiamo che il cavallo di battaglia della sua campagna elettorale fu proprio quanto fosse diventata insicura la città con Veltroni, battendo proprio su un caso di stupro— non vi sia stata nessuna sostanziale alterazione nell'andamento dei crimini, già in calo dal 2006 nonostante il sempre maggior tempo dedicato alla crona nera dall'informazione; nessuno si va a chiedere perché già prima di identificare i responsabili di uno stupro si presentava come futura soluzione al problema la costruzione di ghetti per zingari e rom; in effetti, nessuno si va a chiedere perché si dovrebbero mettere in gioco i militari a far servizio di polizia: se cinque corpi di polizia (Carabinieri, Guardia di Finanza, Polizia di Stato, Polizia Regionale, Polizia Municipale) non sono sufficienti forse c'è qualche altro tipo di problema. Ma chi si pone la questione? L'importante è poter avere l'illusione di sentirci sicuri (ma non troppo).

Ovviamente, la gestione del potere dipende in maniera sostanziale dalla gestione dell'informazione: una gestione che può assumere forme più o meno subdole. La forma data ad una notizia segna pesantemente il cosa pensare, ma è spesso sufficiente, con molto meno sforzo, guidare l'a cosa pensare, pesando opportunamente le notizie o non dandole affatto (quanto e dove è girata in Italia la notizia della condanna in primo grado di Mills?). Ma il controllo dell'informazion diventa ancora più cruciale quando ci si avvicina a chi gestisce il potere, perché non è importante che i misfatti non vengano compiuti, ma che non si vengano a sapere.

Non a caso i militari statunitensi che hanno diffuso le immagini delle torture di Abu Ghraib sono stati i primi a venire puniti. Non a caso la legge di questo governo sulle intercettazioni, nel suo progetto iniziale (fortunatamente accanitamente combattuto), non solo le rendeva praticamente ineffettuabili, ma soprattutto ne impediva la pubblicazione. (Altro paradosso: da un lato in nome del ‘diritto alla privacy’ (che meriterebbe un discorso a sé stante) si cerchi di istituzionalizzare la disinformazione del cittadino, dall'altro ci si dimentica dello stesso diritto per spingere invece per aumentare i meccanismi di sorveglianza sui cittadini stessi.) Sarà mica perché i giudici, dopo tutto, sono più facili da comprare che l'opinione pubblica? Sarà perché non tutte le porcherie sono crimini? (Ma poi mi chiedo: mettiamo, ipoteticamente parlando, che si scoprisse ad esempio che realmente la Gelmini è diventata ministro spompinando Berlusconi, e supponiamo che i documenti che lo provano diventino di dominio pubblico nonostante tutti i tentativi fatti per distruggerli perché non pertinenti alle indagini in cui sono stati procurati; alla maggior parte degli italiani gliene fregherebbe niente, se la cosa fosse vera e documentata? Mi guardo attorno e l'etica e la morale che vedo diffuse accetterebbero la cosa tranquillamente, se non addirittura con quel pizzico d'invidia che molti provano per i ‘furbi’ che riescono a ‘fottere il sistema’ salendo i gradini della scala sociale con favoritismi, clientelismi, raccomandazioni e pura e semplice prostituzione, ormai sempre più senza nemmeno quell'ipocrita velo della finta indignazione.)

Nel peggiore dei casi, quando le minacce (legali e meno legali) diventassero inutili, si può sempre ammazzare l'Anna Politkovskaya o il Giuseppe Fava di turno.

Ma se non è difficile ottenere il controllo dell'informazione giornalistica e radiotelevisiva, vi è un altro terreno su cui è molto più difficile imporsi, un terreno in cui l'informazione regna senza controllo.

  1. interessante anche il giochetto mediatico del ‘romeno’ con cui ci si libera della necessità di distinguere tra rom e rumeni, due popoli completamente distinti da ogni punto di vista e che non si vedono nemmeno di buon occhio l'un l'altro; confoderli semplifica la vita ed aiuta ad usare i rumeni come scusa per ghettizzare i rom, ed i rom per stimmatizzare i rumeni, ora che gli albanesi non fanno più notizia. ↩  ↩

  2. e non talebani come la massiccia ed ignorante anglicizzazione del giornalismo italiano vorrebbe. ↩

SIAE Addendum

Il presidente francese Sarközy è stato accusato di violazione di diritto d'autore.

La notizia è parecchio interessante perché la presidenza francese è una delle principali promotrici della legge (che vorrebbe europea) della “risposta graduata”; la legge prevede che un ente appositamente designato (Hadopi), qualora venga segnalata (da altri enti autorizzati a farlo) una violazione di diritto d'autore online (scaricamento o condivisione di file contenenti materiale protetto da), proceda inviando dapprima una lettera di diffida all'accusato, a cui dovrebbe seguire, se la situazione d'infrazione prosegue nei sei mesi successivi, una raccomandata con ricevuta di ritorno (sempre di diffida) e nel caso in cui la situazione continui a persistere, di disconnettere per un periodo dai tre mesi ad un anno l'accusato.

Al di là della quanto mai sospetta e discutibile (nonché probabilmente incostituzionale) sufficienza di un'accusa per procedere alla disconnessione (si torna alla violazione della presunzione d'innocenza, principio che sussiste anche in Francia), ovviamente, ciò che (non?) fa notizia è l'ipocrisia del promotore di questa meravigliosa iniziativa.

Chissà se Sarközy, come farebbe Berlusconi, se la prenderebbe con quei comunisti delle case discografiche.

La mafia del copyright

Da parecchio tempo ormai la protezione della proprietà intellettuale ha trasceso i limiti della criminalità ed è scaduta nel ridicolo. Come spesso accade in questi casi, l'indraconianizzarsi delle misure protezionistiche sortisce l'effetto opposto a quello originariamente inteso, portando ad una perdita totale del rispetto per i principî su cui si fondava l'idea originaria et ad una totale dissociazione tra lettera e spirito delle leggi da un lato e loro recezione del pubblico cui dovrebbero essere rivolte dall'altro.

In quanto segue partirò dal presupposto, peraltro non universalmente condiviso, che la proprietà intellettuale abbia un valore e che pertanto meriti una qualche forma di protezione.

La filosofia politico-economica moderna vuole che la protezione della proprietà intellettuale in tutte le sue forme abbia come obiettivo di stimolare la creatività intellettuale garantendo ai creatori di poter beneficiare del frutto del loro lavoro; in teoria, per evitare una stagnazione della produzione creativa, queste forme di protezione dovrebbero essere bilanciate e limitate per evitare da un lato che ‘riposando sugli allori’ il creatore non sia più stimolato a produrre ulteriormente e dall'altro che la protezione dell'originale impedisca la creazione di opere derivate, risultando in un freno invece che in uno stimolo.

Sulle varie forme di proprietà intellettuale, dal brevetto al marchio registrato, un discorso a sé stante merita sicuramente il diritto d'autore, che nella cultura anglosassone prende il nome (e le funzioni principali) di diritto di copia. In effetti, fin dall'inizio della sua non tanto breve storia, il copyright nasce principalmente come forma di controllo governativo sulle opere di stampa (lecite, controllate dalla censura) e sulla loro diffusione, sviluppandosi in seguito principalmente come meccanismo protettivo nei confronti di una corporazione (quella degli stampatori) i cui margini di profitto erano minacciati dal progressivo abbassarsi dei costi di produzione libraria. Solo in seguito, quando il giudizio negativo di larghe fette della popolazione nei confronti di questo tipo di attività diventa determinante si passa ad una prospettiva che sottolinei piuttosto il presunto aspetto di protezione della proprietà intellettuale, ovvero del contenuto ‘astratto’, artistico, letterario, musicale o quant'altro piuttosto che all'oggetto fisico che ne permette la fruizione (libro, musicassetta, compact disc o quant'altro).

Per comprendere quanto l'aspetto protezionistico corporativistico sia ancora un fondante pilastro del copyright e delle leggi sul diritto d'autore si potrebbe partire ad esempio della rapida escalation che esse hanno avuto negli Stati Uniti, uno degli ultimi Paesi occidentali a sottoscrivere la Convenzione di Berna, con oltre un secolo di ritardo rispetto ai primi firmatari.

Nel frattempo, i termini di 14 anni (rinnovabili per altri 14) della prima legge statunitense (1790) sul copyright per lavori registrati furono estesi a 28 (rinnovabili per altri 28) nel 1909. Il primo stravolgente cambiamento si ebbe 10 anni dopo la morte di Walt Disney, con l'estesione dei termini del copyright a 75 anni o la morte dell'autore più altri 50. All'approssimarsi dell'uscita dal copyright delle prime opere di Walt Disney i termini furono estesi a 95 anni dopo la pubblicazione, 120 dopo la creazione o 70 anni dopo la morte dell'autore.

(Il lobbying in realtà non è mancato anche nell'ambito della Comunità Europea, dove le leggi di estensione del copyright sono state rese retroattive per ripescare quei prodotti che, mancando il passaggio del '76, sarebbero dovuti ormai essere di pubblico dominio.)

È abbastanza evidente che nonostante le eccellenti intenzioni che si può immaginare avesse Victor Hugo quando fece pressione per una convezione internazionale (che poi si concretizzò nella già citata convenzione di Berna) per l'automatica e naturale protezione della proprietà intellettuale dell'autore dell'opera, gli effetti di quella proposta e delle sue successive modifiche si sono mosse in tutt'altra direzione.

Prendiamo in esempio il caso italiano, che coinvolge direttamente la Società Italiana degli Autori ed Editori, un'associazione nata anch'essa forse con le migliori intenzioni, ma la cui attività si è progressivamente trasformata assumendo forme che ricordano nemmeno tanto da lontano il taglieggio, il ‘pizzo’ mafioso ed altre forme ‘protettive’ da criminalità organizzata (nel caso della SIAE anche legalizzata) che beneficiano il protettore piuttosto che il protetto. A condimento della situazione italiana troviamo inoltre situazioni cui l'abitudine ha smesso di farci pensare.

Pensiamo ad esempio alla tassa SIAE imposta su tutti i supporti (audio e videocassette, CD, DVD) registrabili ma vergini (privi quindi di contenuto, ed in particolare di contenuto protetto dal diritto d'autore), nonché su tutte le apparecchiature atte alla registrazione (dai mangianastri col tasto REC ai masterizzatori), i cui proventi dovrebbero essere divisi, salvo una provvigione per la SIAE stessa e non si sa bene in base a quali criteri, tra gli autori e gli editori membri della SIAE le cui opere potrebbero essere soggette a copia illegale. La tassa assume quindi la forma di una multa preventiva. Che sarebbe un po' come mettere in carcere tutti quelli che comprano un coltello da cucina perché potrebbero usarlo per uccidere qualcuno, o tutti i preti perché potrebbero violentare qualche minorenne. La multa preventiva in questione è qualcosa che va ben oltre un processo alle intenzioni, e viola uno dei pilastri del diritto civile e penale italiano: la presunzione d'innocenza; in quanto tale è anche incostituzionale (art. 27 della Costituzione Italiana).

Ci si potrebbe poi chiedere perché la riproduzione di materiale protetto da copyright preveda non solo sanzioni amministrative, ma anche la reclusione da sei mesi a tre anni; per contro, il falso in bilancio mirato all'evasione fiscale è stato depenalizzato (coincidentalmente da quel Berlusconi che ritiene l'evasione fiscale un diritto se non addirittura un dovere morale laddove si ritenga la tassazione eccessiva): truffare 60 milioni di italiani è molto meno grave che scavalcare gli interessi di una corporazione che non ha (più, se mai l'ha avuto) motivo di esistere.

È pure inutile sperare che i recenti attriti con la FIMI possano portare finalmente ad un ben necessario ridimensionamento della parassitaggine della SIAE, ma anche con le migliori speranze il panorama governativo italiano non promette nulla di più che un eventuale adelchico rimanere del vecchio col nuovo.

Il vero cambiamento dovrà essere culturale e di massa, e nasce già da internet, formando involontariamente una generazione con una ben diversa percezione della fruibilità dei contenuti creativi. E le sempre nuove, sempre più draconiane regolamentazioni che tentino di sabotare i frutti della terza rivoluzione industriale per proteggere gli interessi di quelle corporazioni il cui strapotere economico e conseguentemente politico è vanificato dai progressi della tecnologia saranno sempre più inutili.

Dopo tutto, e mi perdoni Publio Cornelio Tacito, valgono molto più i buoni costumi che non le leggi ridicole.

Darwinismo, giudizi, qualità e trascendenza

Uno dei più grandi mutamenti filosofici indotti dalle teorie evoluzionistiche (spesso riduttivamente esemplificate con il darwinismo, a cui va comunque il merito del ‘salto concettuale’ dal microevoluzionismo al macroevoluzionismo ed alla speciazione, benché Darwin stesso non avesse un'approfondita comprensione di quest'ultimo meccanismo) è quello di aprire la strada ad una concezione della qualità (nel senso comparativo di migliore/peggiore) che è integralmente a posteriori, nonché funzionale e contestualmente limitata.

Il risultato dell'evoluzione è sempre, in un certo senso per definizione, migliore di ciò che l'ha preceduta: il rigidissimo (benché statistico) criterio selettivo della sopravvivenza del più adatto non lascia spazio (sul lungo periodo) ad eccezioni di sorta. Ovviamente la più alta qualità globale di una specie lascia spazio ad interessanti contraddizioni rispetto ad una valutazione aprioristica: ad esempio, gli esseri umani sono meccanicamente poco adatti al bipedalismo, ma poiché proprio questo ci ha liberato gli arti superiori rendendoli disponibili per l'uso e la creazione di strumenti (in nostro punto di forza, come ho già detto), ci ritroviamo in condizioni meccanicamente non ideali, ma in cui il bilancio di vantaggio e svantaggi è comunque positivo.

Un altro aspetto non indifferente dei meccanismi evolutivi è che essi conducono tendenzialmente verso un aumento della complessità, probabilmente perché maggiore complessità dà maggiori speranze di sopravvivenza, almento entro certi limiti di bilanciamento (ovvero finché la complessità sia in grado di mantenersi e non si sgretoli schiacciata dal proprio metaforico peso): se consideriamo ad esempio che i nostri mitocondri hanno un loro codice genetico che è ben distinto dal nostro, verrebbe da sospettare che essi fossero in origine una specie a sé stante (e se lo fossero ancora? non si potrebbe persino mettere in dubbio l'idea della nostra individualità, come se fossimo (e con noi quante altre specie animali?) qualcosa come un formicaio, ma talmente più complesso da prendere coscienza?) sopravvissuta facendosi assorbire in qualcosa di ben più complesso.

L'uomo, per contro, soprattutto per quanto riguarda le proprie attività (fisiche o sprituali che siano) ha una forte tendenza ad intendere la qualità in senso molto più aprioristico, nonché frequentemente pregiudiziale, seguendo meccanismi psicologici che si manifestano talvolta paradossali, quando non addirittura perversi. Inoltre, soprattutto in certi campi, tende a prediligere una certa semplicità, o quanto meno un certo ordine, ad una caotica complessità.

In matematica, per dire, si preferisce cercare di ridurre il numero di ipotesi necessarie ad enunciare una certa tesi; e nel valutare la qualità di una dimostrazione si preferisce l'eleganza della semplicità piuttosto che dispendiosi barocchismi. Leggendo ad esempio i primi cinque postulati di Euclide (e ricordando che ciò che l'autore greco chiamava ‘retta’ la geometria moderna chiama ‘segmento’):

  • Tra due punti qualsiasi è possibile tracciare una ed una sola retta.
  • Si può prolungare una retta oltre i due punti indefinitamente.
  • Dato un punto e una lunghezza, è possibile descrivere un cerchio.
  • Tutti gli angoli retti sono uguali.
  • Se una retta che taglia due rette determina dallo stesso lato angoli interni minori di due angoli retti, prolungando le due rette, esse si incontreranno dalla parte dove i due angoli sono minori di due retti.

si capisce subito perché ad Euclide quel quinto postulato non piacesse, e perché egli cercò di usarlo soltanto quando ne fu costretto, sviluppando le prime 28 proposizioni della sua Geometria1 tenendosene ben lontano.

In effetti, anche la ricerca della semplicità e dell'ordine sono funzionali. In matematica ad esempio più è semplice una dimostrazione più è difficile che nasconda subdoli errori; e più è semplice un enunciato più è facile che sia applicabile. In una società, regole e strutture ben definite e possibilmente semplici permettono a ciascun individuo che vi appartiene di conoscere con precisione il proprio ruolo e quindi (in teoria) di comportarsi di conseguenza facendo funzionare la società stessa senza inceppamenti.

Almeno in teoria.

Guardando la storia delle società umane non è difficile notare un andamento in un certo senso darwinistico, ad esempio nell'aumento della complessità, ovvero nella prevalenza di quelle società che hanno avuto una maggiore capacità di acquisire risorse, se non sempre di sfruttarle al meglio. E poiché da un punto di vista prettamente evoluzionistico ogni mutamento che si impone è un miglioramento2, le società contemporanee sono a posteriori “migliori” di quelle passate.

Tutto ciò ovviamente contrasta smaccatamente con la diffusa valutazione dettata dai criteri del giudizio umano, che invece propende frequentemente verso un nostalgico rimpianto di un passato raramente reale, più spesso fittizio o quanto meno idealizzato e/o mitizzato (probabilmente proprio per renderlo più appetibile), “età dell'oro” in cui si era vecchi a quarant'anni, si moriva generalmente nel primo anno di vita, le strade erano fogne e la Biblioteca di Babele era

solitaria, infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil, incorruptible, secreta

solitaria, infinita, perfettamente immobile, armata di volumi preziosi, inutile, incorruttibile, segreta

nonché immaginaria: nostalgie che prendono varie forme, dal «voglio andare a vivere in campagna» alla celebrazione di tradizioni varie nonché non più tali3 (se mai lo sono state).

Sarà sicuramente una coincidenza che molte delle nostalgie che rientrano della seconda esemplificazione mirino più che altro ad un periodo in cui il nostalgico sarebbe appartenuto —almeno secondo la sua opinione— ad una classe che godeva di certi privilegi di cui egli ormai non gode (più): generalmente quello di potersi dedicare alla coltivazione dei propri interessi perché altri provvedevano ai suoi bisogni, ovvero la possibilità di agire in maniera sostanzialmente arbitraria senza doversi preoccupare di significative reazioni sociali. Dopo tutto, queste pigrizie e velleità che hanno qualcosa di immaturo non sono l'unica possibile causa: si potrebbe anche supporre che semplicemente la maggior parte dei peones non abbia quella finezza spirituale necessaria per cogliere e prendere coscienza del prezioso valore perduto nella progressiva decadenza di tempora e mores.

Resta il fatto che i “bei tempi andati” sono, per l'appunto, andati: per quanto fossero grandiosi e/o gloriosi e/o valorosi e/o altrimenti migliori, hanno ceduto a ciò che li ha seguiti. Hanno fallito. Così, se qualcuno scrive:

Per inciso, è chiarissima in Evola l’eco di una polemica anticristiana di origine romantico-nietzscheana: il cristianesimo, religione corrotta, tarda e inguaribilmente “semitica”, avrebbe svilito e fiaccato l’anima dei popoli ariani privandoli dell’iniziazione regale-guerriera, e con ciò consegnandoli al vampiresco dominio di vuoti preti spacciatori di un’innaturale mitezza.

a me viene l'impressione che i popoli ariani ci facciano una figura piuttosto misera, ché nonostante la critica sia incentrata sulla religione cristiana, i perdenti sono coloro che da essa si sono fatti corrompere, svilire, fiaccare: verrebbe da pensare che un certo complesso di superiorità sia per loro inevitabile, visto il loro fallimento (banali e ben noti meccanismi di compensazione psicologica).

Ora, se il realizzarsi dei Destini è inesorabile, e tutto ciò che inesorabilmente si compie è Destino, è evidente che il subentrare, più o meno subdolo o per contro più o meno violento, del nuovo al vecchio è destino, del vecchio come del nuovo: il che non trattiene (né dovrebbe né potrebbe trattenere) i paladini del vecchio dall'auspicare un ritorno dell'oggetto della loro nostalgia; e benché non è da escludere che per loro il sentirsi richiamare al (da loro ritenuto) superiore (ma nonostante ciò, sconfitto) passato abbia già un forte valore, nel momento in cui da questo loro sentire deriva un agire non più interno e spirituale, ma esterno e concreto viene da chiedersi quanto possano essere proficui (o vani) (oltre che vanesi) i loro sforzi restauratori.

Dopo tutto, finché si parla di tutto ciò che è spirituale ed astratto non è difficile esprimere il proprio sentire senza tema di contrasto se non dall'eventualmente dissimile sentire di qualcun altro, essendo di dubbie fondazioni e soprattutto scarsa validabilità sia l'una sia l'altra tesi, come tutto ciò che è remoto tanto dal mondo sensibile quanto da quello della logica, dominî dai quali non si può più prescindere scendendo nel reale, dove sarà quindi più opportuna un'analisi più concreta, e pertanto evoluzionistica, dei processi che hanno portato il nuovo a prevalere sul vecchio: perché il nuovo manterrà il proprio dominio fintanto che le condizioni resteranno quelle che gli hanno dato il vantaggio sul vecchio, o finché non emerga qualcosa di ancora più nuovo (e che dal vecchio sarà ancora più remoto) che nel medesimo o in un nuovo contesto abbia maggiori possibilità.

Ovviamente, il sottoscritto è tutto tranne che uno storico delle religioni, quindi se mi si chiedesse ad esempio quali possano essere state le possibili cause dell'affermazione del cristianesimo, potrei farmi guidare solo dalle mie modestissime conoscenze di storia e del cristianesimo stesso, cucendo il tutto con le mie tendenze alla pragmatizzazione (detrascendentalizzazione) delle vicende umane.

A mio parere si possono identificare almeno tre possibili motivazioni dietro la forte presa che ebbe il cristianesimo delle origini: il suo avere sostanzialmente un unico, semplice precetto (“amatevi l'un l'altro”, con un exemplum più o meno mitizzato); la rivalutazione dell'underdog, in senso sia spirituale (poiché loro è il regno dei cieli) sia più terreno (appartenenza comunitaria); una filosofia che negava al potere dell'uomo sull'uomo ogni giustificazione trascendente (le prime comunità cristiane erano democratiche e comuniste). La forte valenza rivoluzionaria, se non addirittura sovversiva, di questi ultimi due aspetti spiega anche le persecuzioni subite dai cristiani, ed in particolare il loro inasprirsi proprio con l'approssimarsi di uno dei più gravi momenti di crisi dell'impero romano, che invece favorì notevolmente la diffusione del cristianesimo.

Cinicamente ritengo però che il vero punto di forza del cristianesimo fu il suo mutarsi paradossale ed ipocrita nel più astuto strumento di potere: da un lato rimanendo allettante con le sue promesse per la popolazione, dall'altro diventando incontrastata giustificazione per quel potere (spirituale e temporale) dell'uomo sull'uomo cui si opponeva il messaggio originale; congiunto all'assorbimento di miti e riti di altre religioni che in quello stesso periodo trovavano il loro spazio tra militari e governanti, questo fece di fatto del cristianesimo la religione più adatta per ogni livello sociale, una forza che la rende tutt'oggi pressoché impossibile da scalzare, nonostante (se non ormai proprio per) la chiara ipocrisia dei suoi sostenitori socialmente più visibili (dalle gerarchie ecclesiastiche a larghe fette della politica).

(Per inciso, proprio questo allontanamento del cristianesimo ‘ecclesiastico’ dal messaggio originario dovrebbe rendere quanto meno problematico criticarlo: ci si riferisce al suo valore primitivo, o a quello ben diverso che effettivamente ne garantì la predominante diffusione nel mondo occidentale?)

Se i preludi al crollo dell'impero romano furono terreno fertile per lo sviluppo del cristianesimo, ci si potrebbe chiedere cosa emergerà dalla crisi del mondo occidentale (crisi che immagino pochi ormai non si siano resi conto di stare vivendo). Personalmente, dubito che il troppo impegantivo razionalismo (in una qualunque sua forma) possa essere mai più che dominio di (relativamente) pochi, quindi mi resterà la curiosità.

In effetti, l'imprevedibilità dell'evoluzione (da cui per l'appunto la prevalenza del giudizio di qualità a posteriori piuttosto che a priori) ovvero più in generale del cambiamento è probabilmente uno dei principali motivi per cui molte filosofie che includono il trascendente hanno capisaldi che pescano invece in punti fermi assoluti, cercando origine o riferimento in qualcosa di aprioristico, universale, fisso, immutabile, eterno, possibilmente unico, che va a contrapporsi all'esperienza sensibile che illustra un universo in continuo mutamento, persino in ciò che le scarse conoscenze dell'antichità portavano a ritenere fisso ed immutabile (dalle montagne al pianeta stesso, dal sole alle stelle più remote).

E se si considera che ogni mutamento è non solo la nascita del nuovo ma anche la morte del vecchio, tanto più da vicino esso ci riguarda tanto più ci ricorda, consciamente o inconsciamente, la più grande minaccia alla nostra esistenza (ovvero la sua fine). Questo spiegherebbe l'inerzia non solo dei confronti dei mutamenti percepiti come peggioramenti, ma anche nei confronti di quelli nei quali non si riesce a vedere un vantaggio che compensi la perdita del vecchio: un egoismo generico con picchi nella sua manifestazione suprema che è la difesa della propria vita.

Le filosofie che si concentrano su assoluti spirituali esprimerebbero allora nient'altro che il bisgono dell'uomo di avere un centro di gravità permanente, un punto di riferimento fisso, reale o fittizio che sia, trascendente laddove l'immanente ne neghi uno: un bisogno che avrebbe come radice anche la paura della morte, nonché la possibilità di scogliere i propri dubbi, di trovare quelle certezze di base di cui la nostra capacità di esprimere giudizi a priori (indipendentemente dalla validità dei giudizi stessi) ha bisogno.

Forse, tutt'altro che eterno e modello astratto ed irragiungibile dell'universo sensibile, il mondo dello spirito è nato con la necessità (e la capacità) dell'uomo di nascondersi dalle proprie paure: un inganno necessario per vivere e sopravvivere in una realtà per la quale non siamo nulla di speciale, in attesa sola di un nuovo che ci soppianti.

  1. Per inciso, la didattica moderna utilizza spesso al posto dell'enuncianto suesposto l'alternativo postulato di Playfair «data una retta ed un punto esterno ad essa, esiste una ed una sola retta passante per quel punto e parallela alla retta data» che a rigore non è strettamente equivalente a quello di Euclide, ma tiene conto di alcuni impliciti assunti che Euclide fece nelle proprie dimostrazioni. ↩

  2. In realtà l'evoluzionismo concepisce anche i cosiddetti mutamenti indifferenti, ovvero che non dànno alcun beneficio, ma nemmeno fanno da ostacolo per la sopravvivenza, ed anche a questi può anche capitare di diffondersi sotto opportune condizioni. ↩

  3. Ricordiamo che tradizione è (o dovrebbe essere) ciò che viene tramandato oralmente, e quindi per estensione gli usi, costumi e precetti appresi nella frequenza quotidiana del proprio nucleo familiare nonché nelle interazioni sociali con gli altri membri di più estesi gruppi sociali a cui si ritiene di o si è costretti ad appartenere. ↩


Ricordo che in un libricino che mi fu regalato negli anni '80, curato da Piero Angela, si menzionava una importante differenza tra gli esseri umani e le scimmie (in particolare gli scimpanzé): la capacità di creare strumenti. In realtà, ma ormai la mia memoria vacilla, credo che fosse qualcosa di leggermente più sofisticato: i nostri non lontani parenti sarebbero in grado di usare gli strumenti, o anche di creare semplici strumenti a mani nude (tipo: sfrondando un ramo), ma non di usare strumenti per creare altri strumenti. Peraltro, non escluderei che più recenti studi di etologia abbiano portato alla luce invece atti di questo tipo, ma per il senso di quanto segue supporrò che questa sia, in qualche modo la differenza indicativa tra l'uomo e le altre specie viventi.

Dopo tutto, almeno a partire dal rinascimento l'uomo (o per lo meno il cosiddetto uomo occidentale) si è gloriato di essere faber, quando non artifex, del proprio destino. Anche con più modeste pretese, però, escludendo forse un po' la fase medievale, l'uomo ha sempre cercato nell'opera d'ingegno materiale (o anche intellettuale) la propria realizzazione. E ci si potrebbe chiedere: chi meglio di colui che crea può conoscere quali esigenze devono essere soddisfatte dagli strumenti di cui deve disporre? chi meglio di lui può quindi concepire l'ideale strumento perfetto per il proprio operare?

Saltando dall'opera allo strumento si può seguire un'indefinita spirale discendente, in cui ciascuno strumento è a sua volta un'opera, che a sua volta necessita di strumenti per la creazione, e dall'opera allo strumento per creare l'opera si passa allo strumento per creare lo strumento per creare l'opera, allo strumento per creare lo strumento per creare lo strumento … ed ognuno di questi passaggi è un campo dove l'artifex può esprimere la propria vena d'ingegno, raggiungendo magari il culmine della creatività del campo ottenendo un insuperabile capolavoro. Ma l'artifex di ciascun campo necessita degli artefices dei campi precedenti, che possano fornirgli i propri capolavori come strumenti per il suo lavoro.

Potremmo arrivare a dire che ogni strumento è un'opera, e viceversa ogni opera è uno strumento, ammettendo che certe opere ‘terminali’ sono strumenti che hanno come fine la fruizione diretta dell'opera stessa (vuoi la sua contemplazione, o la soddisfazione del creatore nell'averla creata: nutrirsi, grattarsi) piuttosto che la creazione di ulteriori strumenti. In tal senso, ciò che distingue la scimmia dall'uomo è che la scimmia si limita ad opere ‘terminali’ laddove l'uomo riesce ad andare oltre.

Certo è interessante osservare che da questo punto di vista l'uomo raggiunge la propria massima espressione (che per l'appunto lo distingue dagli altri esseri viventi) non tanto quando disegna o scolpisce o compone, quanto piuttosto quando pialla, inchioda, suda davanti alla fornace. Dopo tutto, l'ornata suppellettile che nutre lo spirito ed il senso estetico del fruitore è funzionalmente più simile al legnetto con cui la scimmia raccoglie le formiche che non allo scalpello con cui è stata creata.

Vi rileverò dalla necessità di contestarmi osservando che laddove la scimmia provvede solo ai proprio fabbisogni fisici e corporali, le opere terminali dell'uomo hanno anche (se non soprattutto) lo scopo di nutrire il suo spirito, quello stesso spirito che è, a detta di molti se non di tutti, ciò che realmente ci distingue dal resto degli esseri viventi. E basta notare l'abbrutimento di chi non cura e coltiva il proprio spirito per capire quanto questo nutrimento che ci separa dagli animali sia importante.

L'osservazione, benché puntuale, sposta di poco l'aspetto funzionale dell'opera terminale: il soddisfacimento di bisogni.

Una specie che avesse oltre ai bisogni fisici ed a quelli spirituali altri bisogni (inesplicabili per noi come i nostri bisogni spirituali lo sono per le scimmie) non vedrebbe nulla di speciale nel nostro fruire opere terminali per nutrire il nostro spirito, esattamente come noi non vediamo nulla di speciale nel fatto che gli animali mangino. A ben pensarci, non è da escludere che ciascuna specie abbia bisogni non fisici che le altre specie non sono in grado di comprendere, nemmeno di indovinare. È ciò che va oltre il soddisfacimento dei bisogni, quindi, la cosa a cui guardare —ammesso e non concesso che la creazione di strumenti per creare altri strumenti non possa essere interpretata anch'essa come soddisfacimento di bisogni, benché in maniera più indiretta: ogni passo nella catena degli strumenti è un livello di indirezione, in cui il bisogno da soddisfare va ricercato nel tentativo di semplificarsi il lavoro ai livelli più vicini al bisogno ‘primario’, terminale.

Comunque, se davvero è nella creazione di opere/strumenti atti alla creazione di altre opere/strumenti (metastrumentalità) che soggiace la differenza (in termini di capacità) dell'uomo dalla scimmia, questa differenza raggiunge la massima espressione (e quindi l'uomo raggiunge l'apice delle proprie capacità) nella creazione ‘a mani nude’ di opere/strumenti che non hanno altro possibile fine che la creazione di altre opere/strumenti (in contrasto, quindi, con quelle che hanno magari anche una fruibilità propria non mirata alla creazione di altro).

Ovviamente, nel caso dell'uomo, alla semplice arteficità più propriamente manuale si aggiunge quella spesso detta “di concetto”, la creazione puramente astratta, tipicamente mentale. E non credo di essere molto lontano dal vero nel sostenere che alla creazione materiale prelude (quasi) sempre quella astratta: la seconda è quindi facilmente strumentale alla prima, e nella misura in cui lo è, è anche una più alta espressione delle capacità dell'uomo. In tal senso, ad esempio, la logica su cui si basa la matematica su cui si basa la fisica su cui si basa l'ingegneria è probabilmente un esempio della più alta realizzazione delle capacità umane.

È opportuno inoltre osservare che tra i campi in cui sa e può operare l'uomo esistono relazioni di metastrumentalità che non sono né lineari né univoche né, soprattutto, a senso unico: strumenti possono essere usati per creare e/o migliorare strumenti che favoriscono la creazione e/o il miglioramento degli strumenti che li hanno creati. Più che di una spirale sarebbe quindi forse più opportuno parlare di una rete, una metaforica tela di ragno al cui centro troviamo l'uomo con le sue mani e la sua mente, e da cui si dipartono fili verso i bisogni ‘diretti’ dell'uomo stesso, fili attraversati a diverse distanze da altri fili a struttura vagamente concentrica, rappresentanti i vari campi del sapere e dell'operare umano, dalla falegnameria alla pittura, dalla filosofia alla matematica: le intersezioni tra i fili sono le opera e gli strumenti, ed i fili stessi indicano una relazione di dipendenza, che può essere in un solo verso ovvero in entrambi, a seconda che l'uno strumento possa essere usato per l'altro e viceversa: da un campo all'altro dal centro alla periferia, nello stesso campo trasversalmente.

Purtroppo, benché la metastrumentalità sia una caratteristica della specie umana in senso collettivo, essa non può facilmente dirsi caratteristica del singolo individuo: benché in tempi passati si potessero trovare arti, mestieri e professioni in cui il faber si dedicasse alla creazione ed al perfezionamento dei propri strumenti quanto a quella delle proprie opere o degli strumenti per le opere altrui, il fenomeno si è sempre più ridotto fin quasi a sparire in tempi moderni, dove l'alta specializzazione, l'aumentare delle conoscenze e la complessità degli strumenti stessi portano ad insormontabili difficoltà nello spaziare per l'intera lunghezza di uno di quei fili che dall'umanità si dipartono verso le sue opere terminali.

Basti pensare che già solo per comprendere il funzionamento degli strumenti su cui poggia il nostro vivere quotidiano avremmo bisogno di conoscenze che spaziano dalla fisica alla chimica, dall'elettronica alla meccanica; per poterli mantenere e riprodurre dovremmo essere fabbri, meccanici, sarti, cuochi, idraulici, ingegneri elettronici, e dovremmo avere a disposizione cantine, officine, camere bianche, nonché una corrispondente quantità di ulteriori strumenti. Non solo degli strumenti d'uso quotidiano abbiamo però una conoscenza non certo approfondita, che nei migliori dei casi si limita a minime capacità di manutenzione, e quasi mai di riproduzione: la maggior parte degli uomini moderni si trova spesso anche sul lavoro a far uso di strumenti dei quali ha nel migliore dei casi una conoscenza solo superficiale; reciprocamente, chi produce opere che hanno un duplice valore terminale e strumentale facilmente si dimentica del secondo, e concentrandosi solo sul primo si allonta dalla piena estrinsecazione di quella capacità che distingue il genere umano.

Non è tanto una limitatezza degli interessi ad impedire agli uomini di occuparsi degli strumenti di cui usufruisce, quanto piuttosto il loro essere selettivi: dopo tutto, anche un polimate, un Uomo Universale (ancora echi del rinascimento) potrebbe comunque non essere in grado di adoprarsi per creare o migliorare gli strumenti a lui necessari per il suo dominio sui molteplici campi di cui si occupa. Sarebbe quindi interessante sapere quali meccanismi psicologici spingono le persone ad interessarsi dei proprî strumenti piuttosto che di altri campi più o meno connessi tra loro.

Dopo tutto, per quale motivo un matematico dovrebbe interessarsi delle applicazioni della sua teoria alla fisica, quando non direttamente all'ingegneria? Eppure la più sconvolgente presentazione del SIMAI 2008 è stata su un sorprendente nesso tra la matematica più astratta (l'algebra omologica) e quella più ingegneristica (gli elementi finiti): non a caso, la presentazione era anche mirata a sottolineare l'arbitrarietà di certe convenzionali distinzioni tra matematica pura (intesa appunto come opera ‘terminale’, per lo più fine a sé stessa) e matematica applicata (intesa appunto come opera strumentale, ‘calcolatrice’).

Viceversa, perché mai un matematico dovrebbe interessarsi degli aspetti tipografici dei lavori che porteranno in giro le sue idee? Eppure il più longevo (e se non il, sicuramente uno dei più longevi) dei software attualmente ancora in circolazione è il TEX, che fu sviluppato sul finire degli anni '70 da Donald Ervin Knuth, matematico ed informatico (anzi Maestro dell'Arte della Programmazione al Computer) che si mise a studiare tipografia non tollerando lo scempio cui veniva sottoposta la (sua) produzione scientifica: non a caso il nome del software deriva dalla τέχνη, la capacità dell'artifex (mi si perdoni l'exploit [ahem] linguistico).

In effetti, ci sono casi in cui è possibile lavorare ai propri strumenti (o a parte di essi) senza trascendere (o con una minima trascendenza de)i limiti della conoscenza settoriale, all'interno quindi della propria τέχνη, e raggiungendo comunque apici di metastrumentalità. Ad esempio, nei bei tempi andati un fabbro era in grado di produrre la maggior parte dei propri strumenti; in tempi più moderni, la cosa è vera per chi scrive programmi al computer: benché non sempre se ne occupi, un programmatore ha già le conoscenze per scrivere programmi che lo aiutino nel proprio lavoro di programmatore. E visto quanto la metastrumentalità porti ad una prospettiva quasi paradossale sull'importanza e la rilevanza delle nostre capacità, verrebbe da chiedersi: essere metastrumentali senza uscire dal proprio campo è meglio o peggio che esserlo spaziando in campi diversi?

(Poi, ecco, tutto questo prende ovviamente spunto dal periodo che sto attraversando, periodo in cui ho lavorato con gran profitto e gran soddisfazione non solo al più immediato compito per il quale da questo mese, e quindi materialmente dal prossimo, riceverò il mio soldo d'impiegato di concetto, ma anche ad una serie di strumenti di contorno. Vedere le proprie conoscenze da matematico ed informatico concretizzarsi nella prima bozza di codice per calcolo scientifico su scheda grafica non è cosa da poco. Ma quando i proprî contributi vengono ufficialmente accettati in un importante strumento di sviluppo utilizzato da molti importanti progetti, be', c'è una soddisfazione tutta particolare.)

Fragile libertà

Uno dei concetti più ambigui eppur più ambìti e forse per questo più abusati dal genere umano è senza dubbio quello di libertà.

In effetti, in contesti molto diversi è anche sensato che il concetto assuma significati diversi; purtroppo però questa libertà (ahem) semantica degenera spesso in una sorta di paraculismo che finisce con lo sminuire un concetto altrimenti di indiscutibile potenza.

Nel ristretto ambito della fisica, si definiscono gradi di libertà i parametri indipendenti atti a determinare la configurazione di un sistema rispetto ad un dato riferimento. Ad esempio, una palla 8 nera su un tavolo da biliardo ha 5 gradi di libertà: due per determinarne la posizione rispetto al centro del tavolo da biliardo, e 3 per determinare com'è girata. Ovviamente, è possibile vincolare un sistema in modo che i gradi di libertà diminuiscano: ad esempio, costringere la palla a scorrere e rotolare dentro un tubo poggiato sul tavolo limita i suoi gradi di libertà a 4 (uno per la posizione nel tubo, e sempre 3 per la rotazione). Viceversa, si possono rimuovere vincoli facendo aumentare i gradi di libertà (se la palla può staccarsi dal tavolo, la sua altezza diventa un sesto grado di libertà).

Ovviamente, da un punto di vista diciamo così ‘spirituale’, questa definizione di libertà non è di particolare appeal, se non altro per il semplice fatto che materialmente le suddette libertà vengono stracciate dalla necessità delle leggi fisiche che governano l'andamento del sistema: benché la palla 8 lanciata in aria abbia 6 gradi di libertà, la sua (ri)caduta (libera!) è univoca, ben determinata ed imprescindibile (che noi la si possa prevedere con esattezza o meno, è ovviamente un altro paio di maniche). Non sorprende quindi che non si affermi comunemente che gli oggetti inanimati siano liberi, anzi Liberi.

Si potrebbe andare anche un po' più in là, osservando che per gli oggetti inanimati non ha nemmeno senso parlare di Libertà. E non pochi sarebbero d'accordo nel dire che persino per la maggior parte degli esseri viventi allo stato brado non si possa parlare di Libertà. Sembrerebbe quasi che quando si parla della Libertà, la libertà che interessa l'uomo, o gli uomini, o certi uomini, non si possa non presupporre che l'individuo, l'ente della cui Libertà si disquisisce, per la cui Libertà si lotta, la cui Libertà si assicura a gran voce abbia quel Qualcosa (autocoscienza? anima? spirito? libero arbitrio? volontà? intenzione?) che lo possa portare ad un attivo contrasto contro i vincoli cui è sottoposto.

Tuttavia, a ben guardare, non ci si sofferma poi più di tanto su quei vincoli a cui l'intero Cosmo (per quanto da noi conosciuto) sembra essere soggetto, come ad esempio le famose leggi fisiche di cui sopra: nel migliore dei casi, si cercano modi per raggiungere i limiti di certe leggi fisiche sfruttandone altre, come l'uso della fluidodinamica o dell'elettromagnetismo per vincere la forza di gravità (per qualche motivo, la legge di gravitazione universale sembra essere se non l'unica sicuramente una delle principali contro cui l'uomo ha cercato di combattere: dall'eterno sogno del volo alle moderne diete dimagranti). La loro ineluttabilità rende sensato il non considerarle quando si parla di Libertà.

Se a questo si aggiunge che si arriva tranquillamente a parlare di Libertà anche per gli animali che dall'uomo vengono vincolati (in spazi sufficientemente ristretti), non è difficile giungere alla conclusione che in realtà la Libertà di un ente ha come propria precondizione una costrizione imposta da un altro ente1, e che di quest'ultimo si suppone che sia dotato di quel Qualcosa (autocoscienza? anima? spirito? libero arbitrio? volontà? intenzione?) che lo possa portare ad un attivo e premeditato imporre vincoli ad altri enti, vincoli che chiamerò arbitrariamente ‘artificiali’ per distinguerli da quelli inescapabili dettati dalle leggi ‘naturali’. (S'intende quindi che per quanto precede e per quanto segue si debba supporre che l'attività umana —e forse non solo quella— non sia guidata esclusivamente da banali e deterministiche —per quanto ignote— reazioni biochimiche.)

A questo punto è d'uopo una piccola digressione. Volendo immaginare un mondo privo dell'uomo (e di qualunque altra specie si possa supporre dotata del suddetto ed iterato Qualcosa che la ‘liberi’ dall'essere una semplice componente ‘paesaggistica’), si vedrebbe probabilmente un mondo in cui le leggi ‘armoniose’ ma non per questo incruente della natura regnino sovrane: un mondo in cui l'ordine del giorno è dettato dalla legge comunemente detta “della giungla”, con gerarchie e (vincolanti?) prevaricazioni dettate dai rapporti di forza tra i singoli esseri viventi, eventualmente nelle loro (spontanee e naturali) associazioni in greggi/branchi/stormi/etc.

Verrebbe da chiedersi se le cose sono poi tanto diverse nel momento in cui entra in gioco l'uomo, ovvero un agente che grazie all'ormai troppo citato Qualcosa si suppone agisca al di fuori di criteri prettamente ‘naturalistici’. Da un lato, la spiccata capacità creativa (che in realtà con il progredire degli studi sugli animali sembrerebbe essere limitata alla creazione di strumenti per creare altri strumenti) altro non è che il punto di forza su cui poggia la sua prevaricazione sul resto degli esseri viventi, che potrebbe quindi rientrare nei criteri ‘naturali’ di dominio. Dall'altro, le strutture sociali su cui si fondano le comunità in cui questa specie si riunisce portano al loro interno il marchio del Qualcosa, e quindi dell'‘artificiale’.

Si notano così alcuni fenomeni interessanti. Si assiste alla stipulazione (più o meno formale, più o meno metaforica) di contratti sociali (più o meno rispettati) che alterano i rapporti di forza all'interno della società, a volte ad esempio concedendo autorità a figure che per le proprie doti non sarebbe ‘naturalmente’ portata al dominio, ed il contadino la cui figlia viene stuprata dal nobile rampollo si ritrova privato della possibilità di reagire, benché non avrebbe in condizioni naturali alcun problema a staccare la testa del suddetto pargolo dal collo dello stesso. E l'aspetto più interessante è la base quasi (ed a volte nemmeno tanto quasi) sovrannaturale, mistica e/o religiosa su cui certe forme di autorità fonda(va)no il proprio dominio: ed è interessante in quanto tentativo di rendere inattaccabile una data struttura ‘artificiale’ spacciandola per ‘naturale’ e quindi imprescindibile.

Veniamo quindi ad un primo possibile punto di diatriba: cosa si può dire di un individuo che, sottoposto a vincoli artificiali (basta con le virgolette, eh?), non ne sia cosciente? Da un lato, un osservatore esterno potrebbe affermare che l'individuo in questione non è libero, poiché egli (l'osservatore) sa che costui (l'individuo) potrebbe trovarsi in una condizione in cui il vincolo imposto artificialmente non fosse presente. D'altra parte, l'individuo, non avendo coscienza dell'artificialità del vincolo, non lo vivrebbe diversamente da quei vincoli naturali che, come già discusso sopra, non vengono normalmente presi di mira nella ricerca di Libertà: dal suo punto di vista non avrebbe quindi neanche senso parlare di Libertà (almeno riguardo a quello specifico vincolo) nella maniera in cui ne parlerebbe l'osservatore esterno.

Un secondo importante punto di diatriba, strettamente collegato al primo: è opportuno far sì che un individuo prenda coscienza di essere sottoposto a vincoli artificiali? Ed ancora: è opportuno liberarlo da quei vincoli? È meglio morire liberi o vivere senza avere coscienza del proprio non esserlo? Domande tutt'altro che retoriche ed oziose (si rifletta ad esempio sulle difficoltà di sopravvivenza degli animali nati e cresciuti in cattività, nel caso vengano liberati, o al senso di frustrazione ed alla conseguente degradazione della qualità della vita che si potrebbe provare nello scoprire di essere sottoposti ad un vincolo artificiale contro il quale non si può far nulla). Questo secondo punto meriterebbe una lunga ed approfondita discussione, ma la già eccessiva verbosità di questo articolo mi spinge ad accantonare queste interessanti domande per tornare al punto chiave che le accomuna e le lega alla precedente.

Il primo, fondamentale passo per guadagnare la propria Libertà è il prendere coscienza di avere una scelta: anche quando alcune delle scelte possano essere poco raccomandabili per via delle potenzialmente dannose se non letali conseguenze. Sarà forse una forzatura parlare di ‘scelta’ in questo caso, ma è comunque un aspetto molto importante da tener presente: un uomo sul ciglio di un burrone può scegliere se buttarsi o meno, benché probabilmente in condizioni normali la stragrande maggioranza degli individui che si trovassero in questa condizione sceglierebbe di non buttarsi. (Nel caso si buttasse, non potrebbe scegliere se precipitare o meno).

Con questa prospettiva, chi non ha coscienza di avere una scelta non è libero. Ad esempio, un individuo che segua le tradizioni assimilate dal contesto in cui è nato e cresciuto, senza mai porsi un interrogativo, senza mai chiedersi «ma perché così? perché non … invece …», costui certamente non è libero. Ma si può dire che chi ha coscienza di avere una scelta lo sia?

Si potrebbe ad esempio osservare che in certi contesti le alternative tra cui si può teoricamente ‘scegliere’ non offrano poi una gran varietà di scelte materialmente praticabili, vuoi perché si tratta di scegliere tra cose non realmente diverse da loro, vuoi perché tutte le alternative tranne una sono ‘insensate’. Chi non si è mai trovato in un contesto in cui il ventaglio di possibilità non nascondeva altro che scelte obbligate (almeno nella prospettiva del soggetto al momento della scelta)? Difficile dire che in questi casi la coscienza di avere una scelta sia sufficiente a dare la libertà.

A volte, però, anche scelte non obbligate degenerano. Un fenomeno non troppo difficile da constatare, ad esempio è la ‘ricerca dei limiti’ che caratterizza solitamente la preadolescenza e l'adolescenza degli esseri umani, un periodo in cui la progressiva scoperta della possibilità di disubbidire scivola non infrequentemente nella ricerca della disubbidienza. Quali che siano i meccanismi psicoemotivi che soggiacciono a questa reazione, il risultato è un imperativo ad agire in contrasto al vincolo artificiale: qualcosa che superficialmente potrebbe apparire come il semplice esercizio di una guadagnata libertà nasconde nella propria natura imperativa un nuovo vincolo, dove si arrende la propria libertà alla propria necessità di agire contro.

Con riferimento al precedente esempio, un individuo che agisca volontariamente ed intenzionalmente in contrasto alle tradizioni assimilate dal contesto in cui è nato e cresciuto, senza mai porsi un interrogativo, senza mai chiedersi «ma perché non così?», costui certamente non è più libero del precedente individuo: come le azioni ed i pensieri del primo erano dettate in maniera sostanzialmente deterministica dall'assenza di coscienza, quelle del secondo sono dettate in maniera non diversamente deterministica dalla coscienza stessa: fare le cose solo perché sono proibite non è meno vincolante che il non farle per lo stesso motivo.

Da questo punto di vista, le motivazioni che stanno dietro l'agire, o il non agire, in un certo modo, sono importanti tanto quanto, se non più delle azioni stesse, nel definire la libertà dell'individuo: cosa in sé non sorprendente, se l'idea di libertà implica il libero arbitrio. Inoltre, il prendere coscienza dell'artificialità di un vincolo non è quindi condizione sufficiente per la conquista della libertà, a meno di non ridurre la stessa all'infantile percezione di libertà come il “fare cose proibite”. Ma chi mai d'altra parte si ferma a questo livello?

Uno sketch del grande Giorgio Gaber procedeva secondo queste linee:

Un uomo in catene sa benissimo quello che vuole: vuole togliersi le catene. E allora si dibatte, lotta, ringhia, tende i suoi nervi, tira fuori tutta la sua energia. E finalmente: ‘SPRAAACK!’ «Libero! Sono libero, sono libero, sono libero … Oddio come sono libero …» E piano piano tutti i muscoli della sua faccia si rilassano, si afflosciano, lasciando intravedere i chiari sintomi una tristezza infinita e progressiva. Dopo un po' ingrassa, anche.

In realtà, ciò che si verifica in quei contesti sociopolitici dove certe libertà comunemente ritenute fondamentali sono almeno formalmente garantite (ovvero certi vincoli comunemente ritenuti un'universalmente ingiusta prevaricazione non sono ufficialmente imposti), è un rivolgercisi ad altre ‘lotte per la libertà’: ma per che tipo, che forma di libertà?

La libertà di parcheggiare in mezzo alla strada per minimizzare il percorso dallo sportello alla tabaccheria, la libertà di avere rapporti sessuali con chi si vuole quando si vuole, la libertà di truffare, la libertà di possedere l'automobile che si desidera guidare, la libertà di dire ciò che si vuole quando si vuole a chi si vuole, la libertà di consumare i cibi le bevande e le sostanze che si desidera consumare, la libertà di non far sapere ciò che si fa a chi non lo si vuole far sapere, la libertà di non essere giudicati, la libertà di non pagare per le conseguenze delle proprie azioni.

Una lettura del concetto di libertà che quindi altro non è che deresponsabilizzazione.

Per inciso, è interessante vedere le differenze tra la chiave pubblica e quella privata di questa lettura. Nel privato sembra infatti che si orienti spesso verso sogni che potrebbero essere estremizzati nell'irrealistica (e ridicola) inversione della ricerca di riconoscimento: «vorrei che mi amassero tutti, lasciando però che io li tratti sempre e solo a pesci in faccia», non meno irrealistico, in effetti, del sogno del volo. Nel pubblico si cerca invece una singolarità nel contratto sociale verso la propria persona, che è in genere quella di un individuo di una certa rilevanza politica e/o sociale: si cerca la possibilità di agire a discapito degli altri, chiedendo garanzie a protezione da quegli stessi altri, con la ben precisa intenzione di privarli della libertà di esigere un compenso per il danno subito.

In fondo, quello che si cerca in entrambi casi è un ritorno ad uno stato ‘naturale’, un po' verso l'infantilmente ingenuo (ed anche per questo non certo non crudele) nel caso privato, più verso un'amplificazione (piuttosto che un riequilibrio) di una legge ‘della giungla’ che valorizzi potere e prestigio piuttosto che altre meno demologiche capacità. In entrambi casi, andando più a fondo, quello che si cerca non è quindi una semplice liberazione del sé, ma una libertà individuale la cui altra faccia è pura e semplice prevaricazione, la cancellazione della libertà altrui.

Una siffatta libertà per sua stessa natura non può essere raggiunta da tutti. Viene allora da pensare che si debba cercare altrove il seme di una libertà individuale più universale.

Forse la risposta va ricercata proprio in quel Qualcosa che, distinguendo il genere umano dagli altri esseri viventi, sarebbe alla base della necessità stessa della ricerca di Libertà, poiché senza di essa non si potrebbe nemmeno parlare di intenzionale prevaricazione. Ed allora alla coscienza dell'artificialità dei vincoli si dovrà affiancare un'analisi critica delle conseguenze della nostra azione, presa in considerazione a prescindere dai vincoli stessi, valutando pertanto l'opportunità di seguire i vincoli o andarvi contro, a patto di accettare, responsabilmente, le conseguenze di ogni nostra scelta. Senza di ciò non si potrà mai veramente togliere ogni rilevanza etica al vincolo artificiale più insormontabile: il giudizio degli altri.

  1. Con meno foga e secondo regole meno generali si parla anche di libertà per coloro che rimangono vincolati da eventi ‘naturali’ o comunque prescindenti da una volontà umana esterna a quella del vincolato, ma questo non disturba molto il resto del discorso. ↩