• Blocco note per raccogliere le idee su svariati argomenti

  • Cosa ne penso delle opere altrui

  • Incisive e/o canine e/o molari

  • Eccezionali eventi quotidiani

  • Sui giochi di ogni sorta, presenti, passati e futuri

  • Conoscenza perfetta

  • Valvola di decompressione aspirante letteraria

  • Il potere della parola, il potere sulla parola

  • Considerazioni sulla Vita, l'Universo e tutto quanto

  • Ovviamente

Questo non è un blog. La rubrica Diaria è quanto di più simile ad un blog inteso come giornale quotidiano si possa trovare qui. Il sito è stato reso pubblico il primo gennaio del 2011, con funzionalità limitate e contenuto variamente pre-esistente. Allo stato attuale:

  • è in sola lettura; in particolare:
    • niente commenti, discussioni, o altro
  • il layout è ben lontano dalla sua versione definitiva; in particolare:
    • bozze, documenti work-in-progress e documenti ‘finiti’ sono indistinguibili e mescolati insieme
    • la pagina indice (questa) e le sue consorelle per le singole rubriche hanno ‘tutto’

Buona lettura.

Nuclear will not save us, part 3


If you believe that nuclear power is the solution to the energetical (and possibly environmental) issues of the more modern developed nations, the question you should ask yourself is: for how long still?

A few weeks ago I've started a series discussing the “expiration time” for nuclear power under the assumption of a constant growth in energy consumption (with a rate between 2% and 3% per year). The results were not very encouraging for the long term: even at the lower growth rate of 2%, the enrgy requirements would grow so much that even the entire mass of the Milky Way, converted entirely into energy according to the famous E=mc2 equation (100% efficient nuclear energy extraction, giving us around 90PJ/kg), would suffice us for less than 5 millenia: not even the time that would be needed to move from one end to the other of said galaxy.

Such is the power of the exponential function.

While the post was not intended as a prediction, but mostly just as a “cautionary tale” about the need to reduce the speed at which energy consumption is growing, it has been criticized for the timescales it considers —timescales ranging from several centuries to millenia, timescales in which “anything may happen”.

I have tried to address the main objections in the follow-up post, discussing primarily two points: one being the choice of 90PJ/kg as upper bound of energy production, and the other being the assumption of energy consumption growing at the current rate for the foreseable future, and most likely even beyond.

Despite the validity of these longer-term considerations (again: not predictions, just considerations), I don't doubt that many (if not most) people would find it useless to reason over such time spans, refusing to take them into account for shorter-term decision-making.

In this third installment of the series, we're thus going to focus on a much shorter term (say, within the century or so), within which it's much harder to deny a continuing growth in energy consumption, at the current rate (which we will optimistically round down to 2% per year), and it's plausible that nuclear energy extraction will continue within the current order of magnitude of efficiency, or only slightly more (say, no more than 10-1 PJ/kg from the current approximately 1.210-3 PJ/kg).

Some preliminary numbers

If you've gone over the first two installments of the series, you may have noticed that the summary table in part 2 has an exceptionally low number in the upper-left corner: where all other scenarios offer an EET of two centuries or more, the lowest scenario gives us only 14 years. Surely that's too low? How is that possible?

The EET of 14 years is indeed too low. It corresponds to the EET under the following assumptions:

  1. constant growth rate of 2% per year;
  2. current tech level, extracting around 1.210-3 PJ per kg of uranium;
  3. 8109 kg of available uranium (the amount estimated to be in current known conventional reserves);
  4. the worldwide total primary energy consumption (6105 PJ/year) is entirely satisfied from nuclear.

The first two assumptions are entirely reasonable within the timespan of less than two decades, the third assumption is possibly even too generous (it assumes that within these two decades, we'd be able to even just extract all of the uranium from the estimated known conventional reserves).

The last assumption, on the other hand, is completely unrealistic: nuclear power generation today barely covers a fraction of worldwide total primary energy consumption. Existing civilian power plants produce less than 2600TWh (or less than 104 PJ) of electricity per year (and the amount is going to decrease, if the current initiatives to transition away from nuclear are any indication of the near future).

(That being said, that uranium wouldn't actually last long at full usage shouldn't even be that big of a piece of news for anyone following the field: even back in 2008 there was awareness about how long uranium would last if production was to ramp up, given the discovered deposits. In fact, we actually get more leeway in our estimates because we're using the much larger amount of estimated known conventional reserves.)

But let's try get a bit more realistic.

Ramping up nuclear

The first exercise is to see what would happen if we ramped up nuclear power (instead of transitioning away), to try and cover a larger slice of the total primary energy consumption, at the current tech level (1.210-3 PJ/kg).

For simplicity, let's round things a little bit. Assume we currently produce 104 PJ/year from nuclear (while this is rounded up, in our calculation the final differences is of at best a couple of years over a whole century), and that the readily available uranium from known conventional reserves is 1010 kg (this is a bit on the generous side, but it's one way account for the discovery of some more uranium deposits).

We have two questions: how long will it take to cover the current global primary energy consumption (6105 PJ/year) and how quickly will we run out of uranium. In particularly, we'd like to at least get to satisfy the current primary energy requirements before running out of uranium

The answers to these questions obviously depend on how fast we can ramp up energy production from nuclear power: the faster we ramp up production, the quicker we match primary energy needs, but at the same time, the faster we ramp up production, the quicker we run out of uranium.

(You can follow the exercise by plugging in the relevant numbers in the form found after the table in part 2 of this series, just consider ‘production’ instead of ‘consumption’ in the first and last field.)

It's interesting to see that with anything less than a 4% growth rate for nuclear power generation, we won't even get to produce one whole year's worth of the current primary energy requirement before running out of uranium: at 4%, we would run out of fuel after slightly less than a century, while producing barely more than 5105 PJ/year.

Anything less than a 4% growth rate (18 years doubling time) would allow uranium to last for over a century, but without covering the current worldwide primary energy consumption. Ramping up at a 5% rate (more specifically, around 4.82%, 15 years doubling time) would allow us to much the current worldwide primary energy consumption just as we run out of easily accessible uranium, 85 years down the line.

To get some meaningful (multi-year) amount of coverage, we would have to ramp up production even faster, but this would shorten the time of availability of the fuel: for example, at a 7% growth rate (doubling time: 10 years, still realistic considering the time it takes to actually build or expand nuclear power stations) the known uranium reserves would have an EET of only 64 years.

Actually, if the ramping up limit was the current total primary energy consumption, uranium would last a little bit longer: the EET production rate would be 8.8105 PJ/year, which is higher than the current consumption. This would buy us a few years if we stopped ramping up as soon as we reached parity, pushing the EET to around 70 years (not much, but still something).

Playing catchup

On the other hand, assuming that the global primary energy consumption remains constant in the next century is quite a stretch: we can expect it to keep growing at the current rate of at least 2% per year for the foreseeable future.

Given the ramping-up timeline, this would give us at least another doubling, potentially even two: this means that even getting at 6105 PJ/year would cover at best only half of the future primary energy needs. We should strive for more. And yet, even a 7% ramp-up rate wouldn't manage to cover a single doubling (1.2106 PJ/year target) before running out of uranium.

We would need at least a 10% ramp-up rate (doubling time: 7 years, which is about the quickest we can do to bring new reactors online) since that would push production to 1.22106 PJ/year —just as uranium runs out, 48 years from now.

We could do “better” of course: knowing in advance the number of reactors needed to match the future energy request, we could build all of them at the same time. But that would only get us much closer to the dreaded 14-years EET for conventional uranium reserves (a quick estimate gives us around 30 years at best).

Ultimately, the conclusion remains the same: at the current technological level, and with the current estimates on the quantity of uranium available in conventional resources, we wouldn't be able to cover more than a few decades of global energy requirements at best, even with conservative estimates on how quickly the latter will grow.

Breeder reactors and the myth of the “renewable” nuclear power

Given that the short expiration time of uranium at current tech level even just to satisfy the current global energy requirements (let alone its increase over the next decades) has been known for decades, one may wonder where the myth of nuclear power as “renewable” comes from.

We can find the answer in a 1983 paper by Bernard L. Cohen published on the American Journal of Physics, vol 51 and titled “Breeder reactors: A renewable energy source”. The abstract reads:

Based on a cost analysis of uranium extracted from seawater, it is concluded that the world’s energy requirements for the next 5 billion years can be met by breeder reactors with no price increase due to fuel costs.

In this sense, nuclear power is considered “renewable” in the sense of being able to last as much as other energy sources traditionally considered renewables (such as wind and solar), whose expiration time is essentially given by the time needed for the Sun to run out. (I think that's an acceptable interpretation of the term, so I'm not going to contest that.)

Cohen's work starts from the well-known (even at the time!) short expiration time for traditional nuclear reactors, and shows how moving to breeder reactors would allow unconventional sources of uranium (particularly, as mentioned in the abstract, uranium extracted from seawater) to become cheap (in the economic sense) enough to be feasible without a significant increase in the price of generated electricity.

The combination of 100× more effective energy production, and the much higher amount of fuel, lead him to calculate the 5 billion years expieration time —assuming a constant rate of production equal to the the total primary energy consumption in 1983.

It should be clear now why Cohen's number don't match up with our initial analysis: uranium would only last long enough to be considered “renewable” at constant production rates, not at ever-increasing rates. In fact, if you want to know the exponential expiration time for seawater uranium in breeder reactors, you just have to look at the second row, second column of the famous table: if energy consumption keeps growing as it is, all the uranium in the sea water fed to breeder reactors wouldn't last us 500 years.

Of course we don't know how accurate of a forecast my “doubling every 30 years” assumption is for future energy consumption (although it's much less far-fetched than some may think) but at the very least we know that Cohen's assumption of constancy was wrong, since consumption has already doubled once since, and it shows no sign of stopping growing anytime soon.

In fact, as I mentioned in the first post, the biggest risk for nuclear comes specifically from the perception of its “renewability”. In some sense, we can expect this to be the opposite of a self-fulfilling prophecy: the appearance of nearly infinite, cheap energy, combined with our inability to understand the exponential function, will more likely encourage an increase in energy consumption, as wasteful behavior devalues in face of the perceived enormity of available energy, ultimately leading to such a steep growth in energy consumption that the source would be consumed in an extremely short time.

By contrast, higher friction against the adoption of nuclear, combined with the much lower enercy cap of all other sources, is likely to drive more efforts into efficiency and energy consumption minimization, thus slowing down the growth of energy consumption, and potentially allowing future nuclear power use to last much longer (even though, most likely, still considerably less than the billions of years prospected by Cohen).

What does it really mean for an energy source to be renewable?

The truth is that, in face of ever-expanding energy requirements, no energy source can be considered truly renewable: the only difference is whether the production of energy from it can keep up with the requirements, or not.

Traditional renewables (wind, solar, hydro, wave, geothermal) can last “forever” (or at least until the Sun dies out) simply because we cannot extract them faster than they regenerate: as such, they won't “die out” (until the Sun does), but at the same time we'll reach a point (and I posit that most likely we're already there) where even if we were able to extract every millijoule as it gets generated, it still wouldn't be enough to match the requirements.

With non-renewables, the energy is all there from the beginning, just waiting for us to extract it. This means that (provided sufficient technological progress) we can extract it at a nearly arbitrary rate, thus keeping up with the growing requirements, but at the cost of exhausting the resource at a disastrous pace.

The imporance of reducing energy consumption growth (and thus to avoid the energy Malthusian trap) is thus dual: maximize the usefulness of traditional renewable sources on one hand, and maximize the duration of non-renewable sources on the other. And yet, it would take extremely low growth factors for non-renewable sources to get anywhere close to billions of years in EET.

As an example, consider the case of Cohen's setup (breeder reactors, seawater uranium) in a slightly different scenarios. Assume for example that energy consumption continues to grow at the current pace for slightly more than a century (due to ongoing population growth and developing countries lifting their standards of living), leading to three more doublings, arriving short of 5106 PJ/year. Assume also that only at this point humanity switched to breeding reactors fueled by seawater uranium, covering with it the total primary energy requirements, and that from this moment onwards energy consumption kept growing at a lower pace. Depending on how low the new pace is, the EET for the seawater uranium in breeding reactors grows proportionally larger:

(per year)
doublings within the EET
(no change)
(no change1)
0.00048828125%92549< 1

It should be clear that even at very small energy consumption growth factors (the smallest presented factor corresponds to a doubling over more than 140K years) it's simply impossible to have non-renewable resources last billions of years, altough some may consider anything over 10K years to be “acceptable”, or at least “not our problem anymore”.

(Side note: even with a 100% conversion of mass to energy, i.e. 90 PJ/kg, the lowest growth rate considered won't give us billions of years: all the seawater uranium would last barey more than a million years, and all of the uranium and thorium estimated to be in the crust would last less than 4 million years, and our entire galaxy 15 million years; to get to a billion years for the Milky Way, growth would have to be lower than 10-5% per year, at 90 PJ/kg.)

Does it make sense to make decisions based on something so far into the future?

While it's true that we can't make predictions that far into the future (especially not in the millenia or hundres thereof that might be provided by the very low growth case), it's true that at the very least we should avoid closing the paths to that future altogether.

Put in another way, we may not be able to look that far, but we are able to determine if we'll get there at all, possibly without passing through a societal collapse.

A quote frequently attributed to Albert Einstein recites something to the tune of:

I do not know with what weapons World War III will be fought, but World War IV will be fought with sticks and stones.

Regardless of how accurate the quote (and its attribution) is, the sentiment is clear: the enormous destructive power (offered by the atom bomb or whatever even worse weapon comes after it) would be enough to throw civilization back to the Stone Age level.

A similar argument can be made here for energy consumption: we don't know when we'll overtop even the most effective form of energy production, but we do know that when that happens it will inevtiably lead to civilization collapse —and it wil be sudden, despite being perfectly predictable (or I wouldn't be writing this now).

With the famouse bacteria in a bottle example, Bartlett highlights, among other things, how even just a few doublings before expiration most people wouldn't realize how close the expiration was, due to the vastness of the available resources and the lack of awareness on how quickly such vastness is consumed by the exponential function, and how even the successful efforts of farsighted individuals to expand the availability would only buy marginal amounts of time before the collapse.

In this perspective, it's never too early to act in the direction of reducing the exponential growth, and in fact, it's actually more likely to be almost always too late. And even if it wasn't too late already, even with the best intentions, there is actually very little, if anything at all, achievable at the individual level that would actually put a dent in the exponential. Frustrating as it may be, even a collective “doing our best” to avoid being wasteful hardly scratches the energy consumption (10 less watts per 24 hours per day per person in the world is still less than 0.5% of the total energy consumption).

The fundamental issue is much more profound, and much more systematic. And the first step in the right direction is to raise awareness about the true nature of the issue: there's a much more urgent problem to address than how to produce energy, and it's how to reduce consumption —and not by the crumbs for which the end user is responsible, but for the entire chain of production, from raw material extraction down to the point of sale.

As I mentioned, this might be the only upside of the transition away from nuclear, and similar “Green New Deal” fairy tale initatives: promoting consumption reduction by energy starvation —although one would wish there were better ways. And worse, it really won't be enough anyway, as long as it's set in the same system for which growth is such an essential component.

We need a completely new direction.

A final(?) remark

I'm hardly the first to make such considerations, and I will surely not be the last. Aside from Bartlett whose famous talk on “Arithmetic, Population and Energy” that consciously or not inspired my initial curiosity into looking at the exponential expiration time for nuclear power, others have now and again discussed the finite limits we're set to meet sooner rather than later in our path of growth, including ones I haven't discussed here, such as the waste heat disposal issue.

And yet, awareness of the issue and of its importance is slow in the uptake. It could easily propapate exponentially, and yet (for once that the exponential could work in our favour!) it seems to encounter such large resistance that it barely trickles out with linear growth, and a slow one at that.

Where does this resistance come from? With all the campaigning on climate and “going green” and sustainability, one would expect this crucial side of the issue to be heard more. The numbers and the math behind it aren't even that hard to grasp. So why?

A possible explanation could be that the timeline is still too long to be able to catch people's attention: we can't get people truly involved with the climatological catastrophes we are bound to experience in the next decades, why would they worry about energy suddenly running out three centuries from now?

But I think there's something more to it. And yes, a sizable part of it is the pathetic realization that climate, sustainability and “going green” can be varnish to commercial exploitation (greenwashing, as they call it); full-chain consumption curbing, on the other hand, cannot, as it's the antithesis of what commercial exploitation thrives on.

But beyond that, there's most likely the realization that we're already at the point where any serious effort at sustainability with current standards of living would be in vain withou a drastic reduction not so much of the consumption, but rather of the consumers.

  1. note that this is in addition to the time necessary to get from 6105 to 5106 PJ/year; the difference between starting the consumption at the 6105 PJ/year level versus starting at the 5106 PJ/year level is marginal. ↩

Nuclear will not save us, part 2


A couple of weeks ago I wrote an article illustrating why even the transition to nuclear energy will not be able to keep up with our energy consumption if such consumption keeps growing at the rate it has been growing since at least the industrial revolution.

I've recently had the opportunity to debate the contents of the article, so I feel that it might be appropriate to clarify some aspects, and delve into some points with more details.

But first of all, a recap.

In the previous article, I make some back-of-the-envelope estimates about for how long it would be possible to keep growing our energy consumptions at an exponential rate (doubling approximately every 30±5 years, i.e. with a rate between 2% and 3% per year) under several (generous) assumptions on our energy productions capabilities.

Exponential Expiration Time (EET) scenarios for nuclear energy assuming a constant growth in energy consumption with rate k=2% per year, starting from the current r0=6105 PJ/yr, for different efficiency levels E (in percent) of mass-to-energy conversion (theoretical maximum: P=90 PJ/kg), and different amounts of available mass M. The EET is computed in years using Bartlett's formula (1k)ln(kRr0+1) and the total amount of energy that can be produced is computed as R=EMP.
Mass (kg)
8109 51012 71012 1.21013 1.21017 51017 71017 31022 91022 71023 31027 21030 41042

Note: the table currently needs JavaScript enabled, because I'm too lazy to copy the data by hand for each of cell. On the other hand, this means that with the same code you can play with the numbers yourself, by changing the numbers in the following form.

(The defaults are for the current tech level and growth rate, using the total mass of the current known uranium reserves and the current nuclear energy production instead of the entire primary global energy consumption, so the EET refers e.g. to a condition in which the fraction of total energy covered by nuclear remains constant, while the total energy consumption grows at the current rate.)

Point #1: it's not a prediction

The point of the article was not to make a forecase about what will happen.

The only point of the article was to show the upper bounds of the exponential expiration time (EET) of energy sources if energy consumption keeps growing at the rate it's growing.

Specifically because it was an estimation of the upper bound, the longest-term predictions were done under ideal, and absolutely unrealistic, conditions, such as in particular the possibility to convert matter (any matter) to energy with 100% efficiency, which —by our current understanding of the physical world— cannot produce more than 90PJ of energy per kg of mass.

Now, this is obviously unrealistic: even with nuclear (the most efficient form of energy production we know now) we only get five orders of magnitude less than 90PJ/kg. But it's intentionally unrealistic, leaving plenty of room to scientific and technological progress to catch up.

Objection #0: you can't tel that it's an upper bound

It's obviously quite possible that in the future (even in the near future) we might be able to find a more efficient form of energy production compared to the best we can do now.

However, the possibility of such an energy source being practically exploitable to produce significantly (i.e. orders of magnitude) more than 90PJ/kg is extremely slim. What it would require is:

  1. a scientific discovery that invalidates the famous E=mc2 formula, showing a way to produce orders of magnitude more than 90PJ of energy per kg of mass or equivalent;
  2. technological progress to make such scientific discovery exploitable to produce energy with sufficient efficiency that the amount of energy produced is still orders of magnitude more than 90PJ/kg (or equivalent);
  3. that such scientific discovery and technological progress happen before we hit the EET of our current energy production methods.

Now, I'm not saying that this is impossible, but the chances of this happening are so low that I can quite safely claim that the estimations to the EET computed with 90PJ/kg are, indeed, the upper bounds to the EET assuming energy consumption keeps growing at the current rate.

That being said …

So, again, the point of the article was not to try and predict the future, but only to see for how long still we can keep growing at the rate we're growing.

In fact, if a point had to be taken from the article, I would say that the main point should be the final suggestion: that it's better to invest in reducing the growth rate of energy consumption than it is to invest in improving energy production efficiency.

But let's move on to the more solid objections.

Objection #1: I'm ignoring the benefits of technological progress

One objection I've read is that my calculations don't take into account the benefits in terms of efficiency (both in energy production and in energy consumption) that will come from technological progress.

For energy production, this is actually mostly false: as I mentioned in the previous point, my estimations of the EET are done in such favorable conditions that I leave room for several orders of magnitude of improvements in energy production efficiency (at least up to the quite realistic but ideal limit of 90PJ/kg). Of course, it's not completely impossible that we won't find (before the expiration date!) a means of energy production that allows us to extract, in practice, more than 90PJ/kg. But unless such a very hypothetical method, beyond even our current scientific comprehension, allows to produce several orders of magnitude more than 90PJ/kg, this part of the objection is completely moot. In fact, even with several orders of magnitude more it would be a very weak objection, since each order of magnitude increase in efficiency only buys us around 3 doublings, which at the current rate means around a century.

For energy consumption, the objection is true, in the sense that I do not discuss the possibility for technological progress to improve the efficiency of our energy consumption, i.e. the possibility to waste less of the produced energy, or to do more work with the same amount of energy.

This is true, but again it's intentional, since how the energy consumed is being spent is irrelevant to my point. The only thing that matter is how much, and how quickly this grows.

Now, for the “how much”, the efficiency of the consumption is completely irrelevant. Where it can become relevant is on the growth of the consumption itself. However, finding a more efficient way to use energy doesn't necessarily mean that less energy will be used (in fact, historically this is mostly false).

That being said, even if improvements in efficiency of consumption did lead globally to a decrease in energy consumption growth, it wouldn't invalidate my point. As an objection, this would make sense if my post was an attempt at making a prediction of what would happen. But it's not, so this is not really a predicition.

Au contraire, given that —if a point has to be made— the point would actually be that we should concentrate our efforts on reducing energy consumption growth, encouraging such technological progress (and such application of it) is actually exactly what my post aims for, by providing the estimated EET for our civilization if we don't go in that direction.

That being said, I can't say I'm particularly optimistic of this actually happening any time soon: when humanity finds a way to use energy more efficiently, this doesn't usually turn into “doing the same work with less”, but it tends to become instead a “let's do even more work with the same amounts of energy”.

In fact, even when at the individual level this may lead to lower consumptions, this decrease is not reflected globally; on the contrary, the higher efficiency leads to more widespread adoption of the technology, leading to an overall higher consumption: which is exactly why, despite the massive increase in efficiency since the beginning of the industrial era, energy consumption is still growing at a more-or-less constant rate.

Objection #2: to grow exponentially for that long, we would have taken to the stars

This was the first objection that tried to take issue with the continuing exponential growth. It was an interesting one, but still rather weak. Morevoer, albeit in a bit underhanded way, I had already addressed it in the post, pointing out that the entire (estimated) mass of the Milky Way will last less than 5 thousand years if energy consumption keeps growing at this rate.

For comparison, the radius of the Milky Way is estimated to be between 80 thousand and 100 thousand light years: we wold run out of energy long before even being able to visit our galaxy without FTL.

With FTL? Possibly we could visit our galaxy then, but who knows how much energy is consumed by that.

Objection #3: you can't make predictions that far into the future

(“That far” being either the millenia for the consumption of our solar system and beyond, or even just the few hundred years before we run out of fissile material to fuel nuclear reactors thousands of times more efficient than the ones we own now.)

This objection comes in at least two variants.

One is essentially on the theme of the already-addressed objections #0 or #1 above, the other comes as a variation on the theme that the exponential growth assumption is invalid.

In either case, it's obviously true that I can't make predicitions that far into the future. But then again, it's also true that I'm not making predictions, I'm just calculating the EET under the assumption of constant growth.

Of course, if the exponential growth assuption is invalid, then the EET doesn't hold —but that's not because I can't make predictions into the future, it's because the exponential growth assumption is invalid.

And that's actually OK, because the whole point, as I mentioned, is that we should slow down the growth to either get out of the exponential growth altogether, or at least lower the grow rate to something that will allow growth for a much, much longer period.

So let's get to the final objection:

Objection #4: we will not grow exponentially for long anyway

On one hand, I could dismiss this with a simple “duh”, since the whole point of the previous post is that if we don't do it by our own choice, it will happen anyway, catastrophically, when we get so close to the EET that it will be apparent to all we won't be able to keep going —except that it will then be too late to slow down without a civilization collapse.

It's interesting however to see the forms that this objection can take. Aside from #2 above, and the masked #3, there's a couple of interesting variants of this that deserve a mention.

Objection #4a: the magnitude of the consumption after a few more doubling is inconceivable

While the wording wasn't exactly that, the basic idea is that if we keep doubling for centuries still, the order of magnitude of the consumption would be so high that we can't even imagine what all that energy would be used for.

And while it's true that we would be hard-pressed to imagine energy consumptions that large, it's not really much of an objection, since this has always been the case. Would anyone have imagined, even just 20 or 30 years ago, that we'd end up air-conditioning the desert?

Ironically, this objection was raised by the same individual that objected to the 90PJ/kg upper limit: so you can imagine us finding a way to produce more energy than that, but not us consuming several orders of magnitude more energy than now?

Honestly, I have fewer problems imagining the latter than the former: flying cars anyone? teletransportation? robots for everything?

Objection #4b: population and consumptions will stabilize in time

This is an interesting objection, because in the long term it's quite likely to be true. I will call this the “logistic” objection, because the fundamental idea is that population and consumption follow a logistic function, which is essentially the only way to avoid the Malthusian trap of overpopulation (more on this later).

Now, let's accept for the moment that this is indeed mostly likely to be true in the long term. The big question is: how long of a term, and how fast will it stabilize?

There are two primary contributions to the global energy consumption: per-capita consumption, and world population. For the global energy consumption to stabilize, we thus need (1) the world population to stabilize and (2) the per-capita consumption to stabilize.

Both of these things are actually strongly correlated to the quality of life and standards of living, and so far they have exhibited a distinct tendency to “flatten out” while improving: more developed and wealthier nations have both a more stable population (sometimes even exhibiting negative growth, if not for immigration) and a reduced (or, again, slightly negative in some cases) growth in energy consumption per capita (although different countries have settled at different rates). Developing nations, on the other hand, have an energy consumption growth that is much higher than the world average: China and India, for example, that together account for nearly half the world population, both have a primary energy consumption growth rate that is around 5% per year (doubling time: 14 years).

Note that in both my previous and this posts the only real underlying assumption is that we don't want to reduce our standards of living nor quality of life. It's clear that without this assumption the exponential growth hypothesis doesn't hold, since it's quite simple to reduce energy consumptions simply by stopping using energy —and thus renounce all of the things in our life that depend on it. (This is also evident when looking at the global work energy consumption over time, and how it “dips” after each recession.)

Let's take the USA today as reference for “stable” energy consumption per capita, which is about 80MWh or slightly less than 300GJ per person. (By the way, did you know that the USA is not the worst offender in terms of energy use per capita? small nations such as Iceland and Qatar have much higher per-person energy use, currently closer to 200MWh per person, or 720GJ per person; even Norway sits slightly higher than the USA, at over 90MWh per person.)

We can expect global energy consumption to keep growing at least until the whole world reaches a similar per-capita consumption, and considering that the world average per-capita consumption is 20MWh per person, growing at a rate of slightly less than 1% annually on average (doubling time: over 70 years), this will take a century and a half if things keep going at the current rate. In fact, it will take at least 70 years even just to get to, say, German levels (around 40MWh per person per year).

If energy consumption per capita stabilizes, global energy consumption will only grow with population: after the ~2.1% growth rate peak reached in the '60s of the XX century, population growth rate has been on a stable decline, and is currently slightly over 1% per year, projected to drop below 1% halfway through this century —thus earlier, in fact, than the doubling time of the per-capita energy consumption.

With these two pieces of information, we can thus say that —unless something goes catastrophically wrong— the global energy consumption will keep at the current rate at least until the end of the XXI century. What will happen after that? According to those raising the objection, the flattening out of the population growth will only require the maintenance of the standards of living, which will require a constant (if not decreasing thanks to technological progress) amount of energy per year.

But is this actually the case?

In the following sections I will discuss two possible counter-points to the “logistic” objection, at the end of which I will drive the following conclusion: the most likely alternative to exponential growth is not stabilization, but societal collapse, i.e. a profound crisis that will lead to a drastic decrease in quality of life and standards of living for the majority of world population.

Counter-objection #1: there's no guarantee that the population will stabilize

Let's briefly recap what the Malthusian trap is. The basic idea is that, in a case where resources (e.g. food) are abundant, population grows exponentially. However, if the resources do not grow at the same rate as the population, we soon reach a point where they are not abundant anymore: there are less resources than the population would require, and this leads to the population collapsing (this is the “trap”), until it again drops below the level of scarcity, and the cycle begins again.

This kind of phenomenon has in fact been historically observed, both locally and globally. However, this seems to have stopped happening since the industrial revolution: since the XIX century in particular, population worldwide has instead grown at an ever-increasing pace up to the second half of the 1960s, peaking at around 2.1% per year. The growth rate has since been decreasing, dropping today to about half the peak rate, but still keeping a positive (larger than 1%, in fact) rate.

The observed trend is quite different from what could be expected by Malthus' model. The chief explanation for this has been the accelerating pace of technological progress, that has allowed the avoidance of the Malthusian trap by changing the ways resources are consumed (improving the efficiency of their consumption, accelerating the shift from one source to another as the previous one became scarcer, etc).

Avoiding the Malthusian trap has allowed a different mechanism to take over: the demographic transition from a child-mortality growth limit to an old-age growth limit. In this model, the plateau in population growth depends essentially on the improvement of living conditions that lead to lowerchild mortality, and a subsequent (and consequent) lowering of fertility (as a larger percentage of children reach adult age). As long as technological progress maintains the resource/population ratio high enough to avoid the Malthusian trap, this demographic transition shifts the age distribution up, as humans lives approach their maximum natural extent and fewer children are born.

This plateau actually contributes to avoiding the Malthusian trap by keeping the population size below the threshold of resource exhaustion.

There's more to it, though.

Looking at the timeframe of the rapid growth in world population, it's interesting to see how the time span of growing growth rate matches pretty well with the period of more revolutionary scientific and technological breakthroughs.

It's possibly a sad state of affairs that since the end of the Cold War technological progress, despite advancing at an incredible pace, has not given us any world-changing breakthroughs: most of the tech we use today is more a refinement of tech that emerged between the interwar period and the end of the Cold War than something completely new and original. (Sad state of affairs because it would hint that wars, be them hot or cold, are a stronger promoter of technological progress than peace.)

In some sense, we've reached a plateau not only in population growth (in the more developed nations), but also in the —allow me the expression— “originality” of technological progress.

Now the question is: when the next significant breakthrough happens, will it come alone, or will it be associated with a renewed increase in population growth rates?

One would be led to answer negatively, since we're already reaching the maximum natural extent of human life, but it's actually quite plausible that we can expect another spike. Some possible scenarios as examples:

  1. improved medical knowledge allowing significant age extension, upping e.g. the average age of death by about 50% compared to now; this would lead to another (although smaller) demographic transition to reach the new plateau associated with the longer life expectancy;
  2. colonization of the currently uninhabitated (or very sparsely inhabitated) areas on the planet surface, including both deserts and oceans: again a new spike in population growth;
  3. space travel and the colonization of the inner planets (Mars and Venus at least) would lead to a massive spike in population growth (not world population only anymore, but global humanity population growth, of course), something that will go on for several centuries more.

These are just examples, of course, but each and all of them are quite plausible. And together with many others, possibly unthinkable at the moment, they are a hint that we are only one technological breakthrough away from the delay of the population stabilization than we can forecast at the moment.

And with it, of course, the associated growth in energy consumption.

Counter-objection #2: stable population and quality of life does not imply stable energy consumption

While it is true that most modern, industrial, “Western” societies have reached a largely stable population, quality of life and energy consumption, I posit that the stabilization of the energy consumption is not, in fact, due to the stabilization of the population and their standards of living. In fact, I will further argue that a stable population at our standards of living cannot be maintained without growing energy consumption. Allow me to justify the latter first, and then explain why we have the perception of a locally stable energy consumption where population and standards of living have reached our levels.

As I've already mentioned, the accelerating pace of technological progress has allowed us to avoid the Malthusian trap (so far): humanity has been able to circumvent the resource/population ratio inversion by improving resource utilization and regeneration at a faster pace than population growth. However, the cost of these improvements has always been paid in terms of energy consumption.

Increased crop yields rely on synthetic fertilizers, whose generation is more energy-intensive than natural ones, and on agricultural machinery, whose construction and use is more energy-intensive than traditional human- or animal-based alternatives. Modern distribution networks are likewise more energy-consuming to build, maintain and use than footwork or animal transportation. For raw materials, especially those that are essentially non-renewable, the trap has been avoided by shifting consumption, as they became scarcer, from the “lower-hanging fruits” to materials that are harder to find, extract, create or manipulate, and that would therefore be prohibitive at lower levels of efficiency or energy production.

It's interesting to show the last part (material source transitions) from an example that will probably soon apply to energy production itself: as shown before, the EET of the current estimated uranium in known conventional sources (8 million metric tons) is only 14 years (assuming constant energy consumption growth of 2% per year, and nuclear alone being used for energy production). This means that soon uranium extraction from unconventional sources (especially the sea) will soon become not only convenient, but in fact the only possible way to keep maintaining our energy requirements —but extracting uranium from the sea is much more expensive, energy-wise, than the conventional methods.

In essence, what the industrial revolution has allowed has been to shift the entire burdern of resource management into one single resource (category): energy. This, by the way, is why energy is the only resource I've discussed in the previous post: its EET is the only one that really matters, since expiration of any other resource can be compensated by increasing energy consumption.

For example, it has been said that “water is the oil of the 21st century”: this maxim is intended to mean that (clean, drinkable) water will become so scarce in the near future that it's likely to become as pricey and crucial as oil (as primary energy source) was in the XX century. Water, after all, is an essential resource for human survival and well-being both as a primary resource (drinking) and as secondary resource (e.g. farming), and with its usage growing at an exponential rate (doubling time: around 20 years), some scientiests are worried that we'll soon hit its EET.

I'm actually not worried of that happening before we hit the energy EET, because with water like with any other resource we can (and in fact I predict we will) be able to expand our (clean, drinakble) water reserves trading out more energy consumption to reduce water consumption, improve filtering and develop better ways to extract useful water from the sea or the atmosphere.

In other words, as long as we can keep producing energy, humanity is largely unaffected by the Malthusian trap of other resources (or, in yet other words, the only resource that would trigger the Malthusian trap now is energy —and it will happen, as we've discussed in the previous post in this series).

The problem with that is: by avoiding the Malthusian trap, even if population stops increasing, we're already past the Malthusian trap point, meaning we're already consuming resources faster than they can regenerate: and this means that even if population stops growing, we will soon run out of the resources we're using, and we'll need to move to other, more “energetically expensive” resources to replace them. A similar argument holds for the environment: we have triggered a vicious cycle where our standards of living destroys the environment at a rate faster than it can regenerate, and this leads to higher energy consumption to preserve inhabitated areas at levels which are more comfortable for humans (open air conditioning in the desert is only the prelude), which in turns accelerates the destruction of the environment, requiring a growing energy consumption to compensate: the “best” recipe for exponential growth.

That being said, it's quite possible (but see below) that the growth rate of energy consumption then (after the world population settles in size and standards of living) will be lower than the one we are experiencing now that the population is growing, and that's a good thing. But the key point is that our current standard of living still requires exponential growth in energy consumption just to be maintained at the present level.

Why then, one may ask, we are not seeing such growth in energy consumption in nations where the population and living standards have largely stabilized?

The answer to this is that what we are observing is a local aspect of a non-local phenomenon: a large part of the energy consumption needed to maintain our standards of living has been externalized, by outsourcing much (if not most) of the manufacturing process and resource extraction to the developing nations.

In other words, the energy consumption growth rate observed in developing nations accounts not only for the growth in size and standards of living of their population, but also for the maintenance of ours —hence energy consumption growth rates of 5% or higher in the face of population growth rates of 3% or lower.

In this situation it's obviously hard to isolate the component in energy consumption growth related to internal factors from the ones related to the burden of the maintenance of “stabilized” nations, but as the developing countries approach our levels of stability and quality of life, and the outsourcing possibilities dminish, we are likely to see a new redistribution (and relocalization) of the energy consumptions that will help characterize the factors. My “gut feeling” (correlating the energy consumption and population growth) is that the baseline (“maintenance-only”) energy consumption growth will remain around 2% (or marginally lower, but most likely not lower than 1%), but we'll have to wait and see.

And the conclusions?

Even though the estimation of the energy EET was not intended to be a prediction of how things will turn out, it's quite plausible that the current growth rate in energy consumption will continue long enough to get us there, unless either active action is taken to focus research on reducing the energy consumption (growth) needed to maintain our current standards of living or we end up hitting some other snag (before the energy EET) that leads ot societal/civilization collapse, with the consequent drastic reduction in energy consumption.

And nuclear still won't save us.

Nuclear will not save us


Humanity has been looking for alternatives to fossil fuels for over a century, but the problem has started to become more pressing since the 1960s, when pepople started to reflect on the fact that the resources would sooner or later be exhausted, it was reinforced during the 1970s energy crisis and has been moved to the foreground of both energy and climate discussions, due to the significant impact that burning fossil fuels has on the environment (something that even the oil companies themselves have known for at least half a century, despite their reliance on —and frequent financia support to— “climate skeptics” to deny the significant effect of anthropogenic effects on climate change —something that has been known (or at least suspected) for decades, and they have finally admitted).

For a brief moment, nuclear energy was seen as the most viable alternative, but the enthusiasm behind it received a collective cold shower after the Chernobyl disaster and with the growing issue of the nuclear waste management, that has brought attention back to “renewables” (extracting energy from the wind, the sun or the water) —with its own sets of issue.

Nuclear power still has its fans, whose arguments mainly focus on two aspects:

  • nuclear is actually the “greenest” energy source, even compared to “renewables” (especially in the medium/long term);
  • nuclear is the only energy source that can keep up with the requirements of modern, advanced societies, especially if you cut out fossil fuels

I'm not going to debate the first point here, but I'll instead focus on the second one. And my argument won't be to deny the efficiency of nuclear power (in fact, the opposite), but to show that despite its efficiency, even nuclear power cannot keep up, and that the real issue we need to tackle, as we've known for decades if not centuries now, is our inability to understand the exponential function.

But let's get into the meat of the discussion.

Fact #1: nuclear energy production has the highest density

This is an undeniable fact by whichever means you meausre the density: it is true when you compare it with any of the renewables in terms of energy produced per square meter of occupied land, and it is true if you compare it with any fossil fuel generator in terms of energy produced per unit of mass consumed.

For example, an actual nuclear power plant at the current technological level occupies around 3km² and produces around 1GW, with an effective (surface) density of about 300W/m². By comparison, geothermal can do at best 15W/m², and solar —that can peak at less than 200W/m² on a good day (literally)— will typically do around 7W/m² (considering the Sun cycles) —and everything else is less than a blip compared to that.

In terms of energy density, gasoline and natural gas with their 45MJ/kg and 55MJ/kg respectively are clear winners among fossil fuels, but their chemical energy density is completely eclipsed by the nucelar energy density of uranium: a 1GW plant consumes less than 30 tons of uranium per year, giving us an effective energy density (at our current technological level) of more than 1000GJ/kg: 5 orders of magnitude higher than that of the best fossil fuels. In fact, even going by the worst possible estimates the uranium ore (from which the actual uranium used as fuel is extracted) has an effective energy density of slightly less than 80MJ/kg, which is still more than 1.5 the maximum theoretical we can get from fossil.

These data points alone could explain why so many people remain solidly convinced that nuclear power is the only viable alternative to fossil fuels, despite the economical, political and social costs of nuclear waste management.

But there's more! The attentive reader will have noticed that I've insisted on the «current technological level» moniker. There's a reason for that: while fossil fuel as an energy source has a long and well-established history, with an associated enormous progress in the efficiency of its exploitation, the same can't be said neither for most renewables, nor for nuclear.

For example, solar irradiance on the Earth surface is around 1kW/m² —about 5 times what we manage to get from it in ideal conditions, and 3 times higher than the surface energy production density of a modern nuclear power plant. A technology breakthrough in solar energy production that could bring the efficiency from 20% to 80% would make solar competitive in massively irradiated regions (think: the Sahara desert).

But the same is true also for nuclear —and in fact, for nuclear, it's considerably more true: indeed, the upper bound on the amount of energy that can be produced from matter is given us by the famous E=mc2 mass–energy equivalence equation. If we could convert 1kg of mass entirely into energy, this would produce close to 90 petajoules of energy, 90 million GJ: 90 thousand times more than what a nuclear power plant can produce today from the fuel pellets fed to it.

If we managed to improve the efficiency of nuclear energy production by a factor of 1000, we'd have an efficiency of only about 1.3%, and it would still completely eclipse any other energy generation method even if they were 100% efficient.

To say that there's room for improvements would be the understatement of the millenia. And this, too, would be an argument in favor of the adoption of nuclear power, and most importantly in investing massively in research for its improvement (especially considering that more efficient production also means less waste to worry about).

And yet, as we'll be seeing momentarily, even reaching 100% efficiency in nuclear energy extraction will not save us.

Ballpark figure #1: mass of the Earth crust.

Let's now do a quick computation of the total mass of the Earth crust, the “thin” (on a planetary scale) layer whose surface veil is the land we trod upon.

The surface of the earth is marginally more than S=510106 km². To estimate the total mass of the crust, let's pretend, very generously, that the crust can be assumed to be H=50 km deep everywhere (this is actually only true for the thickest parts of the continental crust), and of a constant density equal to that of the most dense igneous rocks (ρ=3500 kg/m³). Rounding up, this gives us a mass of the crust equal to SHρ=91022 kg.

(This is quite a large overestimation, since the actual average thickness is less than half of H, and the average density is less than 3000 kg/m³, so we're talking about at best a thrid of the overestimation; but as we shall see, even the generous overestimation of 91019 metric tons will not save us.)

How much energy could we extract from the crust?

Let's play a little game. Let's pretend that we have a 100% efficient mass–energy conversion: 1kg of mass _of any kind _goes in, 90PJ of energy (and no waste!) comes out.

For comparison, the world's yearly primary energy consumption currently amounts to more than 170103 TWh —let's be generous and round it down to 600103 PJ.

If we had the amazing 100% mass-to-energy conversion technology, less than 7 (metric) tons of mass would be sufficient to satisfy the current energy requirements for the whole world in a year. (For comparison, a modern 1GW nuclear power plant produces 5 tons of waste per year.)

If we had this wonderfully 100% efficient technology, it would take R=1.31019 years, at the current energy consumption rate, to exhaust the 91019 (metric) tons of the Earth's crust.

(Try it from the other side: 91022 kg of mass producing 90 PJ/kg means 8.11024 PJ of energy, which divided by 6105 PJ of yearly consumption give us a more accurate R=1.351019.)

Needless to say, we wouldn't need to worry about wasting energy ever again, considering the sun will run out long before that (estimated: 5109 years).

Or would we?

Enter the exponential function

Looking again at the world's energy consumption, we can notice that it has been growing at an almost constant rate (a ballbark estimation from the plot gives us a rate of about 2% or 3% per year, corresponding to a doubling time of about 25 to 35 years) —that is, exponentially.

And a widespread idea among supporters of nuclear energy is that with nuclear there's no need to change that —nuclear energy is the solution, after all, given how much it can give us now, and how much potential it still has, there's no need to limit how much energy we use.

The math, however, says different. Since the energy consumption will grow over time, the previously computed ratio R=1.31019 does not tell us anymore the number of years before the crust is consumed —to determine that, we rather need to check how many doublings will fit in that ratio, which we can approximate by log2(R) —and that's less than 64 doublings: at the current growth rate, that means something between 1500 and 2000 years.

For a more detailed computation, we can apply the “Exponential Expiration Time” formula, found for example in Bartlett's work: the EET in our case ln(k1.351019+1)k, which gives us 1351 years for a 3% growth rate, and 2007 years at a 2% growth rate.

This deserves repeating: at the current rate at which energy consumption grows, the entire crust of our plane would run out in at most 2000 years in the best-case scenario that we manage to find a 100% efficien mass to energy conversion method within the next decade.

Be more realistic

The actual timespan we can expect is in fact much lower than that.

For example, we're nowhere close to being 100% efficient in mass to energy conversion: in fact, you'll recall that even if we manage to improve our efficiency by a thousandfold, we'll only be barely more than 1% efficient —meaning that even the two-orders-of-magnitude-lower R=1.351017 is still an extremely generous estimate.

But there's more: the mass of the Earth crust is likely one third of that of our gross overestimation, bringing R down to around R=4.51016. But what's worse, the amount of uranium in the crust is currently estimated to be only about 4 parts in a million, which would bring R further down to about R=1.81011.

To wit, that would give us between 747 and 1100 years before we ran out of fuel, assuming we managed to extract all of the uranium and convert it to energy with a 1% efficiency, which is a thousand times better than what we can do now..

I'll take this opportunity to clarify something important about the exponential function —with an example.

At our current tech level, we would have R=2.34108 —all the uranium would be gone in 525 to 768 years. For thorium, which is around 3 times more abundant, the estimate is 562 to 822 years. Now ask yourself: what if we use both? Surely that means over a thousand years (525+562), possibly closer to 2000 (768+822)?


That's not how the exponential function works.

If energy consumption keeps growing at this steady 2-3% rate, thorium and uranium combined would only last 571 to 837 years: switching to thorium after depleting all the uranium would only add around 50 to 80 years.

Can it get worse?

It should be clear from even the most optimistic numbers seen so far that nuclear energy by itself is not sustainable in the long term: even if we switched entirely to nuclear power and found a breakthrough in the next decade or so that would bring the efficiency up by a thousand times, we won't last more than a few centuries before running out of energy, unless something is done to stop the exponential growth in energy consumption.

But it gets worse. I'm not particularly optimistic about humanity's wisdom. In fact, in my experience, the more a resource is abundant, the faster its consumption grows. And this goes for energy too.

In my mind, the biggest threat posed by nuclear power isn't even the risk posed by the mismanagement of the plants or of the still-radioactive waste. The biggest threat posed by nuclear power is the “yahoo, practically infinite energy in our hands!” attitude of its supporters, which is quite likely to lead to energy consumption growing at an even higher rate than the current one, if we ever switch to nuclear on a more extensive scale.

And with an increased growth rate, we'll run out of energy much, much earlier: at a 7% growth rate in energy consumption (doubling time: 10 years), all the estimated uranium in the crust would be gone in 237 years at our current tech level, or 332 years assuming we get the 1% efficiency breathrough now; and the entire crust would be depleted in 591 years assuming 100% efficient mass-to-energy conversion from any material.

And no, there is no “we'll find something better in the mean time”, because there's nothing better than 100% efficient mass-to-energy conversion. Even harnessing the mass of other celestial bodies won't do more than extend the expiration time by another few hundred years, maybe a couple of millenia at best: at a growth rate of 2% and 100% conversion efficiency, the entire planet of Mars would last us for no more than 2105 years —and remember, that's not in addition to the depletion of the crust of our planet: in fact, adding the overstimated mass of Earth's crust to the mass of Mars won't even budge the expiration time by a single year.

The entire mass of all the celestial bodies in the solar system would last around 2500 years. If we add in the Sun (which means, essentially, just the mass of Sun, actually), we would still run out in 2852 years, at a 2% growth rate and 100% efficiency.

(Wait a second, I'll hear somebody say: how comes the Sun will last for billions of years still, but if we converted all of its mass into energy using our 100% efficient mechanism it won't even last 3000 years? And the answer, my friend, is again the exponential function: the Sun produces energy at a (more or less) constant rate, but we're talking about how quickly it will be depleted at a growing rate. Does that help put things in persepctive? No? How about the entire Milky Way would last less than 43 centuries?)

So yes, there is no “we'll find something better”, not at the current growth rate.

The only sustainable option is reducing the growth rate of the total energy consumption.

Degrowth is the answer

Now, with this title I'm not proposing degrowth as the solution, I'm simply stating a fact: degrowth will happen, regardless of whether humanity choose voluntarily to go down that path or not. The only difference is how it will happen. But it will happen. Because if we don't wisen up and curb our own growth, we will run out of resources, and at the current growth rate that will happen at best in a few centuries, with or without nuclear power: and when it does happen (not if, but when), we will have sudden, drastic, forceful degrowth imposed on us by the lack of resources (most importantly, energy).

We're running towards an unbreakable wall. There is no other option but deceleration, and that's because deceleration will happen, whether we want it or not. Our only choice is between slowing down gracefully, and stopping before we hit the wall, or experiencing the sudden, instantaneous and painful deceleration that will happen the moment we hit that wall.

And now for the “good” news

Slowing down the growth rate is an extremely effective way to extend the EET. Let's have a look at this from our worst-case scenario: at the current technological level, and 3% growth rate, all of the estimated uranium and thorium in Earth's crust will be depleted in 571 years, but with a 2% growth rate it would last 837 years.

Dropping the growth rate to 1%, they would last 1605 years —which is more or less the EET for the entire crust at 100% efficient conversion with a 2.5% growth rate.

Going even lower, to 0.5% growth rate, they would last over 3000 years —more than it would take to deplete the Sun with 100% efficient conversion and a 2% growth rate.

Increasing the adoption and efficiency of nuclear power generation can buy us maybe a few centuries.
Decreasing the growth rate can buy us millenia.

Where would you invest with these odds?

(See also the next article on the topic for additional details and comments on the plausibility of a continuing exponential growth.)

Getting ready for 2078

There has recently been quite some drama on IRC: the largest IRC network dedicated to free/libre and open source software (FLOSS), Freenode, has been taken over by a fraudolent “entrepreneur”, causing the enitre (volunteer!) staff that had operated the network for decades to just quit en masse to create an alternative to Freenode, named Libera.

Most communities and projects that previously relied on Freenode have now started a migration process to move to the newly enstablished Libera or to the pre-existing OFTC networks, leaving Freenode with “skeleton” channels and users —so much so that the new Freenode administration has made changes to the Terms of Service to basically allow, if not straightforwardly encourage, hostile takeovers of “inactive” community channels.

Drama aside, I've taken the switchover from Freenode to Libera as an opportunity to do some long-needed cleanup of my IRC networks and channel list —but not just that.

In a famous XKCD strip, “Team Chat”, Randall Munroe pokes fun at the surprising persistence of IRC as a communication platform: from the “old days” in which it was the protocol for both real-time and asynchronous communication, to the current times, where every major innovation in “instant messaging” has to allow some kind of bridge to IRC, to a hypothetical future where all human consciuousness has merged, except for that single individual that still uses IRC to interface and communicate with others. The alt-text of the comic reveals an even more distant future, where finally some progress is made … in a fashion:

2078: He announces that he's finally making the jump from screen+irssi to tmux+weechat.

This is quite the nerdy joke (as frequent with XKCD).

For the uninitiated, screen is a terminal multiplexer, i.e. a program that allows you to control multiple terminals from a single one. One of the major features of terminal multiplexers is that they are “resistant” to disconnections: if your connection fails while you're using the multiplexer, you can reattach to the previous session when the connection comes back up, allowing you to continue working with nothing worse than some wasted time. This particular feature makes it a very convenient “wrapper” in conjunction with an IRC client: you run the client from within a multiplexer session running on some server, and this allows you to reconnect to it from anywhere and never lose track of your IRC conversations.

The joke is that screen is “a bit long in the tooth”, and there are more modern and feature-rich terminal multiplexers around, tmux being the most common one. Similarly, irssi is by many considered now a bit “stale” and underdeveloped, compared to other IRC clients such as weechat. Still, most people have a tendency to stick to the tools they're used to (“if it's not broken, don't fix it”), so that switching to a more modern multiplexer and IRC client combo would be considered “more effort than it's worth” —it would take some very strong selling point of the new combo to convince them into investing time and active brain power for the switchover.

(It would be so much simpler if there were ways to convert ones' configuration from one tool to the other, but not only this isn't always possible, it's also such a low-priority feature for most developers that it's rarely done even when possible.)

In my case, I have long abandoned screen for tmux, not only to host my “permanent” connections to IRC, but in general for all my terminal multiplexing needs. (Why? That would be a long story, but the short of it is that I find the level of control and (VIM-like) command syntax of tmux sufficiently superior to their screen counterparts to justify the switch; finding a documented tmux configuration that eased the transition also helped a lot.)

So for a long time I was in a sort of hybrid (XKCD-wise) situation, using the venerable irssi as my IRC client, but within tmux. And with the Freenod/Libera.chat drama, I've had the opportunity to revisit the relevant XKCD comic, and finally give weechat a try.

I'm sold. I've now completed the transition to tmux+weechat, and thus consider myself ready for 2078.

(If you're curious about the reason why: weechat's selling point for me was their relay feauture, that allows connection to a running weechat instance from e.g. the Android app in a more practical way than going through something like ConnectBot or its specialized cousin to connect to the IRC client running in a terminal multiplexer via SSH —because let's be honest here, Android as an operating system, and the devices on which it runs, aren't really designed for this kind of usage, usually.)

XPS 15 7590: the worst computer I've ever had

On September 2019 I got a Dell XPS 15 7590, a powerful 15.6" laptop, to replace my previous Dell XPS 15 9570 from 2013 that, after 6 years of honorable service and several maintenance interventions (which, given the unusual stress I put my laptops in, was not unusual) was getting a bit too long in the tooth.

I have generally been quite satisfied with my Dell laptops (all the way back to the first one I owned, a venerable Dell Inpsiron 8100 with an out-of-this world 15" 1600×1200 UXGA high-density display, that I've mentioned before), with which I've had generally better luck than with laptops from other vendors.

This is however not the case with the one I'm currently using. In fact, my experience with this laptop has been so bad that I have no qualms in claiming that this is the worst computer I've ever had. (And I've had some pretty poor experiences, including a laptop HDD failing exactly one week after the warranty expiration, and working for two years with the shittiest display ever attached to a laptop.)

In fact, what makes the XPS 15 7590 situation particularly crappy is that not only it's a badly designed piece of hardware with components of debatable reliability (as I'm going to discuss momentarily), but it's the fact that —at least on paper— it's supposed to be a high-end powerhorse, starring an Intel Core i7-9750H 6-core/12-thred CPU running at 2.6GHz and an NVIDIA GeForce GTX 1650 3D accelerator, with a high-capacity battery to provide the user with several hours of gaming/officing/video streaming.

(Narrator: «It doesn't»)

There's so many things that went wrong in the materialization of this hardware that I'm not even sure where I should start listing them from.

First of all, I should probably mention that the power requirements of the laptop are enormous: you need a 130W power source to be able to use it while charging, and even with the battery configured for slow charging the power is still barely sufficient. I also have a strong suspicion that the distribution of the power within the system is far from reliable, due to at least two different symptoms: monitor flickering when switching from/to battery/AC, and the laptop simply shutting down when turning the discrete GPU / 3D accelerator on while on battery.

To make things worse, the power connector in the system is dramatically loose, leading to unpleasant situations where finding the correct angle/depth/tension to make the laptop even just sense that the power cord is inserted becomes a ridiculous game of contorsionism, or finding out the connector had gone disconnected by the laptop nearly dying under your hands (or suddently shutting off because you switched on the accelerator, as mentioned before).

It doesn't end here, obviously: a strong contributor to the power issues of this model is the horribly inadequate cooling system: the system runs at over 60°C even when under light load, with the fans having troubles keeping the temperature low enough under heavy load, leading to frequently throttling of both the CPU and the 3D accelerator —and a consequent massive reduction in performance (videos stuttering, gaming with FPS dropping in the single digits, long compilation time, near impossibility to do any serious benchmark of my HPC code).

And of course, the combination of higher-than-expected power requirements and lower-than expected cooling capabilities, the battery has never lasted as long as advertised (maybe half of that, out of the box).

The rest of the hardware isn't much better: it took several firmware updates to get the WiFi working reliably, Bluetooth connections still randomly die without apparent cause, and the touchpad has issues recovering from sleep mode. This last issue is particularly frustratring because it's not even easy to circumvent: when the touchpad is borked the touchscreen doesn't work either, and even external mice become unreliable due to the touchpad still firing up random events. (Apparently, a workaround is to keep the left touchpad bottom for a few seconds and this can help reset the device, or at least clear the queue or whatever else is causing the malfunction.)

Now, before anybody comes up and mention that I might just have been unlucky and drawn the short stick, getting myself a defective laptop —nope: these are structural issue, reported by several users, and not even related to the operating system (as a Linux user, I'm used to hardware issues related to poor testing with that operating system, and in fact I was half convinced that e.g. the touchpad issue might be Linux-related —but no, Windows users have the exact same issues, so it's something in hardware.)

In fact Dell even recently (January 2021) released a new BIOS version that tries to address several of the issues I mentioned, and while it does improve some of them up to a point, it's still not enough to completely fix most of them (e.g. the power cord detection is improved, but it's still extremely volatile, especially when the laptop has been on for several days; moreover, the touchpad still has issues when getting out of sleep mode). But at least the laptop does run cooler now (between 50 and 60 degrees Celsius with a light load) most of the time.

Now, as I've said before, I've had some pretty poor experience with laptops. Indeed, until I got this one, I would have said that the worst I've ever had was the one before the previous one: the one whose HDD died right after the warranty expiration, which was also the one with the, shall we say, less than stellar display; and flimsy plastic finishes; and several other small annoyances. Yet despite the traumatic experience of the HDD death (a one-off issue against every wise person should be adequately prepared) most of my gripes against the previous holder of the “worst laptop I've ever owned” had only minor annoyances counting against it. Also I came to it from my wonderful über-bright matte UXGA display of Inspiron 8100, which might have heavily biased me against its display.

But no, the XPS 15 7590 isn't like that. It's really bad.

Mind you, on paper it's really a wonderful laptop. The 4K display is also crystal clear —when it's not flickering due to the power distribution issues— and it's even a touch screen, if you choose that configuration1. The keyboard is backlit, and as laptop keyboards go, it's a pretty nice keyboard —except that some times it seems to eat up characters (but again this might be an operating system issue, although I've generally seen these issues when the touchpad isn't working either). The touchpad is large and comfortable to use, including support for multi-touch gestures —when it actually works. The number and type of connectors, while not exceptional, is pretty adequate, especially paired with the USB-C adapter with VGA, HDMI, Ethernet and USB-A 3.0 connectors. The CPU and 3D accelerator (discrete GPU) are high-end, top-of-the-line offers (for the release date of this model) —too bad you don't really get to exploit them at their full power for long, due to the thermal and power issues. The 32GB of RAM and 1TB of NVMe storage are also a very nice touch —and possibly the only thing that hasn't given me any significant issues … yet.

In the end, as I already mentioned, the biggest let-down is that what you're left with after all the issues are taken out isn't nowhere near what it was supposed, which —for the hefty price the product carries— is simply unacceptable.

I mean, if I pay 200€ for a laptop (I did, in fact, buy one such thing for my mother, that was quite strict on the upper bounds we were allowed to spend for her present) I don't expect much from it, other than the bare minimum. And in fact, with all its downsides and limitation, that laptop was exactly what we expected to be, and even managed to last way longer than we had envisioned, with minimal maintenance (although to be fair we did expand the RAM and we did replace the internal hard disk with an SSD). That's fine —I'm not buying a Ferrari, I don't expect a Ferrari.

But when I do buy a Ferrari Enzo, I most definitely don't expect to find myself using something that —on a good day— may at best resemble an Open Tigra with the pretense of being an Enzo.


The single biggest (for me) issue is that the power connector is loose and will frequently drop the laptop out of charge.

A close second is the horrible thermals, and the consequent CPU and GPU throttling.

The inability for the touchpad to reliably come out of sleep is a distant third (at least inasmuch it can be worked around in ways that the other two issues cannot).

  1. I've had usage of the touchscreen lead to hard lock-ups for the system, but I'm quite sure this is an operating system/driver issue, and not a hardware one; I can't be 100% sure though, because it's an issue which is neither easy to reproduce nor easy to debug. ↩

(How to) avoid division by zero (in C)

Let's say we're collecting some data, and we want to compute an average of the values. Or we computed the absolute error, and we want the relative error. This requires the division of some number (e.g. the sum of the values, or the absolute error) by some other number (e.g. the number of values, the reference value).

Catastrophe arises when the number we want to divide by is 0: if the list of values we want to average is empty, for example, we would end up with an expression such as 0/0 (undefined).

Programmatically, we would like to avoid such corner cases with as little hassle as possible. The standard way to handle these cases is by using conditional expressions: if the value we want to divide for is zero, do something special, otherwise do the division we're actually interested in.

This can be cumbersome.

In what follows, we'll assume that the special handling of the zero division case would be to return the numerator unchanged: we want r=ab if b is non-zero, otherwise r=a will do. In (C) code, this could be written:

if (b != 0)
    r = a/b;
    r = a;

We can write this more succinctly using the ternary operator:

r = b != 0 ? a/b : a;

or, leveraging the fact that any non-zero value is “true”:

r = b ? a/b : a;

I'll leave it to the reader to decide if this expression is more readable or not, but the fundamental issue remains that this kind of conditional handling is still not nice. Worse, if this is done in a loop (e.g. to convert a set of absolute errors into a set of relative errors, dividing each by the corresponding —potentially null!— reference value) It can even produce sub-optimal code on modern machines with vector capabilities: since the expression for the two sides is different, and there is no way to know (until the program is running) which elements will follow which path, the compiler will have to produce sub-optimal scalar code instead of potentially much faster vectorized code.

Ideally, we would want to have the same operation done on both sides of the conditional. This can, in fact, be achieved by remarking that a is the same as a/1. We can thus write:

r = a/(b ? b : 1);

The advantage of this expression is that, as the body of a loop, it leads to better vectorization opportunities, delegating the conditional to the construction of the divisor.

But we can do better! There's a nifty trick we can employ (at least in C), leveraging the fact that the boolean negation of any non-zero value is 0, and the boolean negation of 0 is 1. The trick is:

r = a/(b + !b);

Why does this work?

If b == 0, then !b == 1, and b + !b == 0 + 1 == 1.

If b != 0, then !b == 0, and b + !b == b + 0 == b.

The result of b + !b is thus exactly the same as b ? b : 1, without using conditionals.

A surprising practical gadget: the finger mouse


A friend of mine has been doing for a while now a weekly reading on YouTube. Sometimes you can clearly see him holding a computer mouse in his hands, whose only purpose is to scroll the reading material.

Myself, I'm a big fan of webcomics, and find myself frequently reading material that is published online in long strip format, where each chapter or episode is a single continuous vertical strip. This format is geared towards “mobile” usage, designed to be viewed on a display in “portrait” orientation, but if you're willing to risk it on your laptop (and don't want to spend the money to get a convertible one that can be transformed in a tablet), you can simply flip the laptop on its size, reading it like a book. The worst downside I've found to this configuration is —possibly suprisingly— the input mechanism.

The solution to my long strip webcoming fruition issues and my friend's reading is the same: something that allow scrolling documents on the computer without the full encumbrance of a traditional mouse.

Enter the finger mouse

The finger mouse, or ring mouse, is an input device that is tied to a finger and typically operated with the other fingers (usually the thumb) of the same hand.

There are at least three forms of finger mice, that I've seen, that chiefly differ by how motion is handled: the trackball, the “nub”, the gyro and the optical.

Trackball finger mice follow the same mechanism as traditional desktop trackballs, and thus the reverse of the old-style mice with balls: you roll the ball with the thumb, and the motion of the ball is converted into planar motions (combinations of left/right and up/down).

Nub finger mice follow the same mechanism as the TrackPoint™ or pointing stick found on some laptop keyboards (most famously IBM/Lenovo): the nub is pushed around with the thumb, and again this converts to planar motions.

Gyroscopic mice use an internal gyroscope to convert hand motions into planar motions. This has the advantage of freeing up some estate on the rest of the device for more buttons.

Finally, optical finger mice work exactly like the usual modern mice, with a laser and optical sensor, the only difference being that instead of holding them with your hands, the pointing device is tied to a finger.

The search (and the finding)

While researching finger mice options (as a present for my friend and obviously for me), I've been held back by two things: pricing and size.

Size was a particularly surprising issue: most of the finger mice options I've seen appear to be unwieldy, some even resembling more dashboards that would require a full hand (other than the one holding it) to operate, than a practical single-handed input device.

Price was no joke either: with more modest pricing ranging between 25€ and 50€, and some options breaking the 100€ barrier or even approaching 200€, one would be led to ask: who is the intended target for these devices? Most definitely not amateurs like me or my friend, but I would be hard pressed to find a justification even at the professional level, except maybe for the lower-cost options if you spent your life doing presentations.

Ultimately, I did find a palatable solution in this (knock-off?) solution: it has everything I wanted (i.e. an easily acccessible scrollwheel) and the price (around 10€ plus shipping) was low enough to cover the worst case scenario. And this is its review.


First, the good news. I'm extremely favorably impressed by the device. It works, it does what I wanted it for, and it's in fact an exceptionally practical device. I mean, I'm not going to say it's good enough for gaming, but I did use it exactly for that too, in the end.

I'm not a pro gamer, most of the games I play are not particularly challenging and I'm generally not a fan of stuff that requires quick reflexes, and perfect timing. But, I do play puzzle-platform games and sometimes you do need pretty good control and timing for them. And I was able to achieve both with this device —definitely much more so with it than with my laptop's touchpad.

To wit, a couple of years ago I had abandoned The swapper shortly after starting it, because I came across a puzzle that had an obvious solution that I was unable to complete on my trackpad. Shortly after getting the new finger mouse, and using it to my enjoyment as no more than a scrollwheel for my weekly dose of long-strip webcomics, I decided to give it a go: let's see if we can finish that stupid puzzle; what's the worst that can happen?

In this case, the worst that happened was that I did manage to solve the puzzle, and many other puzzles after it, all while lying in bed with the laptop on my stomach, a hand on the keyboard (WASD) and the other, with the finger mouse, lying relaxed on the bed sheets. Until 2:30am.

So yes, it's accurate enough at least for casual gaming (I've also replayed Portal, and finally started Lugaru, which was unplayable on the touchpad) and what's more it works on surfaces where a standard mouse would have issues working, such as bed sheets and covers or the shirt or T-shirt you're wearing. Or the palmrests of your laptop, if you don't want to look too weird (but in that case you're not the kind of person that flips the laptop on its side to use it in portrait mode, so you have one less reason to enjoy this gadget).

The device runs on battery, with a single AAA battery. It has a physical switch to turn the power on and off, and from what I understand it goes into low power mode while not being in use too. And of course you can use recharable batteries in it without issues (it's what I'm using).

And it works out of the box (at least on my machine, running Linux).


The device isn't perfect.

It's wireless, which while practical may be an issue for security-conscious people (and possibly health fanatics too).

It does require a surface for use as a mouse (but of course not if you only care about the scrollwheel, which is my case for the most part), but it's not that big of an issue since, as mentioned, I've been able to use it even on surfaces where even standard optical mice are notoriously problematic (there are, however, surfaces on top of which the finger mouse has issues too).

It can take a bit to get used to it, and it feels wierd. The most comfortable way to use it is to tie it to the outside of the middle finger, resting the index finger on top of it, and leaving the thumb to control the buttons and scrollwheel. It's not particularly heavy, but not exceptionally light either (yet I suspect a large part of the weight actually comes from the battery, so if you can find an extra-light battery, that might fix the issue for you). I got used to it and it doesn't annoy me in the least, but I've read reviews of people that find it too weird, so this is most definitely subjective.

It ties to the finger with a strap; this allows freedom to regulate the tightness, but it may be difficult to find the optimal one: too tight, and the diminished circulation can make your finger go numb; not tight enough, and the wiggling will chafe your skin.

It's designed to be used with the right hand. This isn't a big problem for me, since I've always used mice with my right hand even though I'm left-handed, but it might be an issue for other people. It can be used with the left hand, and the most practical way I've found for is to tie it to the inside of the middle finger (so it's inside your hand, more similar to classic mice), but you'll need to flip the axis directions (both horizontal and vertical —and possibly the buttons too) unless you use it on your stomach.


The specific product I bought for myself is already not available anymore on the Amazon page, but several other similarly-priced variants are there. The product I have identifies with USB ID 062A:4010, registered to MosArt for a wireless Keyboard/Mouse combo (even though in this case there's only a mouse), and I've seen the same product ID used in several cheapo brands mouse and keyboard/mouse combos (Trust, RadioShack, etc). Products similar to mine, always from no-name brands and at similar (around 10€, sometimes less) prices, can also be found on both Amazon and other e-commerce sites. I don't know how closesly they match the products I've reviewed (aside from the branding), but given my package flew in almost directly from the factory in China, I'm going out on a limb and guess that for the most part they're all the same thing.

Ah, you want pictures too? There's a couple on my Twitter.

Por una subraya

(I'm told guion bajo is the preferred name for the underscore sign _ in Castilian, but that would have made it harder to echo Por una cabeza. Then again, why the Spanish title? Because.)

(Also, this is going to be a very boring post, because it's mostly just a rant to let off some steam after a frustrating debug session.)

I'm getting into the bad habit of not trusting the compiler, especially when it comes to a specific compiler1. I'm not sure if there's a particular reason for that, other than —possibly— a particular dislike for its closed nature, or past unpleasant experiences in trying to make it work with the more recent versions of the host compiler(s).

Compilers have progressed enourmously in the latest years. I have a strong suspicion that this has been by and large merit of the (re)surgence of the Clang/LLVM family, and the strong pressure it has put the GCC developers under —with the consequent significant improvements on both sides.

However, compilers that need to somehow interact with these compilers (most famously the nvcc compiler developed by NVIDIA for CUDA) have a tendency to lag behind: you can't always the latest version of GCC (or Clang for the amtter) with them, and they themselves do not provide many of the benefits that developers have come to expect from modern compiler, especially in the fields of error and warning message quality and detail, or even in the nature of those same warnings and errors.

This rant is born out of a stressing and frustrating debugging session that has lasted for a few days, and that could have easily been avoided with better tools. What made the bug particularly frustrating was that it seemed to trigger or disappear in the most incoherent of circurmstances. Adding some conditional code (even code that would never run) or moving code around in assumingly idempotent transformations would be enough to make it appear, or disappear again, until the program was recompiled.

The most frustrating part was that, when the code seemed to work, it would seem to work correctly (or at least give credible results). When it seemed to not work, it would simply produce invalid values from thin air.

The symptoms, for anyone with some experience in the field, would be obviously: reading from unitialized memory —even if for some magic reason it seemed to work (when it worked) despite the massively parallel nature of the code and the hundreds of thousands of cycles it ran for.

The code in question is something like this:

struct A : B, C, D
    float4 relPos;
    float r;
    float mass;
    float f;
/* etc */
    A(params_t const& params, pdata_t const& pdata,
      const int index_, float4 const& relPos_, const float r_)
        B(index_, params),
        C(index_, pdata, params),
        D(r, params),
        f(func(r, params))

Can you spot what's wrong with the code?

Spoiler Alert!

Here's the correct version of the code:

struct A : B, C, D
    float4 relPos;
    float r;
    float mass;
    float f;
/* etc */
    A(params_t const& params, pdata_t const& pdata,
      const int index_, float4 const& relPos_, const float r_)
        B(index_, params),
        C(index_, pdata, params),
        D(r_, params),
        f(func(r, params))

The only difference, in case you're having trouble noticing, is that D is being initialized using r_ instead of r.

What's the difference? The object we're talking about, and initialization order. r is the member of our structure, r_ is the parameter we're passing to the constructor to initialize it. After the structure initialization is complete, they will hold the same value, but until r gets initialized (with the value r_), its content is undefined, and using it (instead of r_) will lead to undefined behavior; and D gets initialized before r, because it's one of the parent structures for the structure we want to initialize —and note that this would happen even if we put the initialization of r before the initialization of D, because initialization actually happens in the order the members (and parents) are declared, not in the order their initialization is expressed.

That single _ made me waste at least two days of work.

Now, this error is my fault —it's undoubtedly my fault, it's a clear example of PEBKAC. And yet, proper tooling would have caught it for me, and made it easier to debug.

  1. if you want to know, I'm talking about the nvcc compiler, i.e. the compiler the handles the single-source CUDA files for GPU programming. ↩

10 digits

The question

How many digits do you need, in base 10, to represent a given (binary) number?

A premise

The C++ standard defines a trait for numerical datatypes that describes “the number of base-10 digits that can be represented by a given type without change”: std::numeric_limits::digits10.

What this means is that all numbers with at most that many digits in base 10 will be representable in the given type. For example, 8-bit integers can represent all numbers from 0 to 99, but not all numbers from 0 to 999, so their digit10 value will be 2.

For integer types, the value can be obtained by taking the number of bits (binary digits) used by the type, dividing by log2(10) (or multiplying by log10(2), which is the same thing), and taking the integer part of the results.

This works because with n bits you can represent 2n values, and with d digits you can represent 10d values, and the condition for digit10 is that d should be such that 10d2n. By taking the logarithm on both sides we get dlog10(2n)=nlog10(2), and since d must be an integer, we get the formula d=nlog10(2).

(Technically, this is still a bit of a simplification, since actually the highest representable number with n bits is 2n-1, and that's still only for unsigned types; for signed one things get more complicated, but that's beyond our scope here.)

The answer

What we want is in some sense the complement of digit10, since we want to ensure that our number of (decimal) digits will be sufficient to represent all numbers of the binary type. Following the same line of reasoning above, we want d such that 2n10d, and thus, skipping a few passages, d=nlog10(2), at least assuming unsigned integer types.

We're looking for the simplest formula that gives us the given result. With C++, we could actually just use digits10 plus one, but we want something independent, for example because we want to use this with C (or any other language that doesn't have a digits10 equivalent).

The first thing we want to do is avoid the logarithm. We could compute the actual value, or at least a value with sufficient precision, but in fact we'll avoid doing that, and instead remember that 210 is pretty close to 103, which puts the logarithm in question in the 310 ballpark, an approximation that is good enough for the first several powers of 210.

With this knowledge, we can approximate dn310. In most programming languages integer division with positive operands returns the floor rather than the ceiling, but it can be turned into something that returns the ceiling by adding to the numerator one less than the denominator1. So:


is the formula we're looking for. In a language like C, where the size of types is given in bytes, that would be come something like

#define PRINT_SIZE(type) ((sizeof(type)*CHAR_BIT*3+9)/10)

where we're assuming 8 bits per byte (adapt as needed if you're on an insane architecture).


The C expression provided above isn't universal. It is better than the even more aggressive approximation sizeof(type)*CHAR_BIT/3, which for example fails for 8-bit bytes (gives 2 instead of 3) and overestimates the result for 64-bit data types (gives 21 instead of 20), but it's not universal.

It works for most standard signed data types, because the number of base-10 digits needed to represent them is almost always the same as their unsigned equivalents, but for example it doesn't work for 64-bit data types (the signed ones need one less digit in this case).

Moreover, it actually starts breaking down for very large integers, because the 310 approximation commits an error of about 10% which starts becoming significant at 256 bits or higher: the formula predicts 77 digits, but 78 are actually needed.

We can expand this by taking more digits to approximate the logarith. For example

#define PRINT_SIZE(type) ((sizeof(type)*CHAR_BIT*301+999)/1000)

doesn't break down until 4096 bits, at which point it misses one digit again. On the other hand

#define PRINT_SIZE(type) ((sizeof(type)*CHAR_BIT*30103+99999)/100000)

can get us reasonably high (in fact, by a quick check it seems this formula should work correctly even for types with 2216=265536 bits, if not more). It also has a nice symmetry to it, even though I guess it would overflow on machines with smaller word sizes (but then again, you probably wouldn't need it there anyway).

  1. If a,b are non-negative integers with b>0, then a+b-1b=ab: (1) if a is a multiple of b, then adding b-1 doesn't go to the next multiple, and thus on both sides we have ab (which is an integer) and (2) if a is not a multiple of b, adding b-1 will overtake exactly one multiple of b. More formally, we can write a=kb+c where k,c are non-negative integers, and c<b (c=0 if a is a multiple, and c>0 otherwise). Define s=sign(c), i.e. s=0 if c=0 and s=1 otherwise. Then a+b-1b=kb+c+b-1b=(k+1)+c-1b=k+1-(1-s)=k+s and ab=kb+cb=k+cb=k+s. ↩

Oblomov permalink
Mixed DPI and the X Window System

I'm writing this article because I'm getting tired of repeating the same concepts every time someone makes misinformed statements about the (lack of) support for mixed-DPI configurations in X11. It is my hope that anybody looking for information on the subject may be directed here, to get the facts about the actual possibilities offered by the protocol, avoiding the biased misinformation available from other sources.

If you only care about “how to do it”, jump straight to The RANDR way, otherwise read along.

So, what are we talking about?

The X Window System

The X Window System (frequently shortened to X11 or even just X), is a system to create and manage graphical user interfaces. It handles both the creation and rendering of graphical elements inside specific subregions of the screen (windows), and the interaction with input devices (such as keyboards and mice).

It's built around a protocol by means of which programs (clients) tell another program (the server, that controls the actual display) what to put on the screen, and conversely by means of which the server can inform the client about all the necessary information concerning both the display and the input devices.

The protocol in question has evolved over time, and reached version 11 in 1987. While the core protocol hasn't introduced any backwards-incompatible changes in the last 30 years (hence the name X11 used to refer to the X Window System), its extensible design has allowed it to keep abreast of technological progress thanks to the introduction and standardization of a number of extensions, that have effectively become part of the subsequent revisions of the protocol (the last one being X11R7.7, released in 2012; the next, X11R7.8, following more a “rolling release” model).


Bitmapped visual surfaces (monitor displays, printed sheets of paper, images projected on a wall) have a certain resolution density, i.e. a certa number of dots or pixels per unit of length: dots per inch (DPI) or pixel per inch (PPI) is a common way to measure it. The reciprocal of the the DPI is usually called “dot pitch”, and refers to the distance between adjacent dots (or pixels). This is usually measured in millimeters, so conversion between DPI and dot pitch is obtained with

DPI   = pitch/25.4
pitch = 25.4/DPI

(there being 25.4 millimeters to the inch).

When it comes to graphics, knowing the DPI of the output is essential to ensure consistent rendering (for example, a drawing program may have a “100% zoom” option where the user might expect a 10cm line to take 10cm on screen), but when it comes to graphical interface elements (text in messages and labels, sizes of buttons and other widgets) the information itself may not be sufficient: usage of the surface should ideally also be taken into consideration.

To this end, the concept of reference pixel was introduced in CSS, representing the pixel of an “ideal” display with a resolution of exactly 96 DPI (dot pitch of around 0.26mm) viewed from a distance of 28 inches (71cm). The reference pixel thus becomes the umpteenth unit of (typographical) length, with exactly 4 reference pixels every 3 typographical points.

Effectively, this allows the definition of a device pixel ratio, as the ratio of device pixels to reference pixels, taking into account the device resolution (DPI) and its assumed distance from the observer (for example, a typical wall-projected image has a much lower DPI than a typical monitor, but is also viewed from much further away, so that the device pixel ratio can be assumed to be the same).

Mixed DPI

A mixed-DPI configuration is a setup where the same display server controls multiple monitors, each with a different DPI.

For example, my current laptop has a built-in 15.6" display (physical dimensions in millimeters: 346×194) with a resolution of 3200×1800 pixels, and a pixel density of about 235 DPI —for all intents and purposes, this is a HiDPI monitor, with slightly higher density than Apple's Retina display brand. I frequently use it together with a 19" external monitor (physical dimensions in millimeters: 408×255) with a resolution of 1440×900 pixels and a pixel density of about 90 DPI —absolutely normal, maybe even somewhat on the lower side.

The massive difference in pixel density between the two monitors can lead to extremely inconsistent appearance of graphical user interfaces that do not take it into consideration: if they render assuming the standard (reference) DPI, elements will appear reasonably sized on the external monitor, but extremely small on the built-in monitor; conversely, if they double the pixel sizing of all interface elements, they will appear properly sized on the built-in monitor, but oversized on the external one.

Proper support for such configuration requires all graphical and textual elements to take a number of pixel which depends on the monitor it is being drawn on. The question is: is this possible with X11?

And the answer is yes. But let's see how this happens in details.

A brief history of X11 and its support for multiple monitors

The origins: the X Screen

An interesting aspect of X11 is that it was designed in a period where the quality and characteristics of bitmap displays (monitors) was much less consistent than it is today. The core protocol thus provides a significant amount of information for the monitors it controls: the resolution, the physical size, the allowed color depth(s), the available color palettes, etc.

A single server could make use of multiple monitors (referred to as “X Screen”s), and each of them could have wildly different characteristics (for example: one could be a high-resolution monochrome display, the other could be a lower-resolution color display). Due to the possible inconsistency between monitors, the classical support for multiple monitors in X did not allow windows to be moved from one X Screen to another. (How would the server render a window created to use a certain kind of visual on a different display that didn't support it?)

It should be noted that while the server itself didn't natively support moving windows across X Screens, clients could be aware of the availability of multiple displays, and they could allow (by their own means) the user to “send” a window to a different display (effectively destroying it, and recreating it with matching content, but taking into account the different characteristics of the other display).

A parenthetical: the client, the server and the toolkit

Multiple X Screen support being dependent on the client, rather than the server, is actually a common leit motif in X11: due to one of its founding principles (“mechanism, not policy”), a lot of X11 features are limited only by how much the clients are aware of them and can make use of them. So, something may be allowed by the protocol, but certain sets of applications don't make use of the functionality.

This is particularly relevant today, when very few applications actually communicate with the X server directly, preferring to rely on an intermediate toolkit library that handles all the nasty little details of communicating with the display server (and possibly even display servers of different nature, not just X11) according to the higher-level “wishes” of the application (“put a window with this size and this content somewhere on the screen”).

The upside of this is that when the toolkit gains support for a certain feature, all applications using it can rely (sometimes automatically) on this. The downside is that if the toolkit removes support for certain features or configurations, suddenly all applications using it stop supporting them too. We'll see some example of this specifically about DPI in this article.

Towards a more modern multi-monitor support: the Xinerama extension

In 1998, an extension to the core X11 protocol was devised to integrate multiple displays seamlessly, making them appear as a single X Screen, and thus allowing windows to freely move between them.

This extension (Xinerama) had some requirements (most importantly, all displays had to support the same visuals), but for the most part they could be heterogeneous.

An important downside of the Xinerama extension is that while it provides information about the resolution (in pixels) and relative position (in pixels!) of the displays, it doesn't reveal any information about the physical characteristics of the displays.

This is an important difference with respect to the classic “separate X Screens” approach: the classic method allowed clients to compute the monitor DPI (as both the resolution and the physical size were provided), but this is not possible in Xinerama.

As a consequence, DPI-aware applications were actually irremediably broken on servers that only supported this extension, unless all the outputs had the same (or similar enough) DPI.

Modern multi-monitor in X11: the XRANDR extension

Xinerama had a number of limitations (the lack of physical information about the monitors being just one of many), and it was essentially superseded by the RANDR (Resize and Rotate) extension when the latter reached version 1.2 in 2007.

Point of interest for our discussion, the RANDR extension took into consideration both the resolution and physical size of the display even when originally proposed in 2001. And even today that it has grown in scope and functionality, it provides all necessary information for each connected, enabled display.

The RANDR caveat

One of the main aspects of the RANDR extension is that each display is essentially a “viewport” on a virtual framebuffer. This virtual framebuffer is the one reported as “X Screen” via the core protocol, even though it doesn't necessarily match any physical screen (not even when a single physical screen is available!).

This gives great flexibility on how to combine monitors (including overlaps, cloning, etc); the hidden cost is that all of the physical information that the core protocol would report about the virtual backend to its X Screen become essentially meaningless.

For this reason, when the RANDR extension is enabled, the core protocol will synthetize ficticious physical dimensions for its X Screen, from the overall framebuffer size, assuming a “reference” pixel density of 96 DPI.

When using a single display covering the whole framebuffer, this leads to a discrepancy between the physical information provided by the core protocol, and the one reported by the RANDR extension. Luckily, the solution for this is trivial, as the RANDR extension allows changing the ficticious dimensions of the X Screen to any value (for example, by using commands such as xrandr --dpi eDP-1, to tell the X server to match the core protocol DPI information to that of the eDP-1 output).

Mixed DPI in X11

Ultimately, X11, as a display protocol, has almost always had support for mixed DPI configurations. With the possible exception of the short period between the introduction of Xinerama and the maturity of the RANDR extension, the server has always been able to provide its clients with all the necessary information to adapt their rendering, window by window, widget by widget, based on the physical characteristics of the outputs in use.

Whether or not this information is being used correctly by clients, however, it's an entirely different matter.

The core way

If you like the old ways, you can manage your mixed DPI setup the classic way, by using separate X Screens for each monitor.

The only thing to be aware of is that if your server is recent enough (and supports the RANDR extension), then by default the core protocol will report a DPI of 96, as discussed here. This can be worked around by calling xrandr as appropriate during the server initialization.

Of course, whether or not applications will use the provided DPI information, X Screen by X Screen, is again entirely up the application. For applications that do not query the X server about DPI information (e.g. all applications using GTK+3, due to this regression), the Xft.dpi resource can be set appropriately for each X Screen.

The RANDR way

On a modern X server with RANDR enabled and monitors with (very) different DPIs merged in a single framebuffer, well-written applications and toolkits can leverage the information provided by the RANDR extension to get the DPI information for each output, and use this to change the font and widget rendering depending on window location.

(This will still result in poor rendering when a window spans multiple montiors, but if you can live with a 2-inch bezel in the middle of your window, you can probably survive misrendering due to poor choice of device pixel ratios.)

The good news is that all applications using the Qt toolkit can do this more or less automatically, provided they use a recent enough version (5.6 at least, 5.9 recommended). Correctly designed Applications can request this behavior from the toolkit on their own (QApplication::setAttribute(Qt::AA_EnableHighDpiScaling);), but the interesting thing is that the user can ask this to be enabled even for legacy applications, by setting the environment variable QT_AUTO_SCREEN_SCALE_FACTOR=1.

(The caveat is that the scaling factor for each monitor is determined from the ratio between the device pixel ratio of the monitor and the device pixel ratio of the primary monitor. So make sure that the DPI reported by the core protocol (which is used as base reference) matches the DPI of your primary monitor —or override the default DPI used by Qt applications by setting the QT_FONT_DPI environment variable appropriately.)

The downside is that outside of Qt, not many applications and tookits have this level of DPI-awareness, and the other major toolkit (GTK+) seems to have no intention to acquire it.

A possible workaround

If you're stuck with poorly written toolkits and applications, RANDR still offers a clumsy workaround: you can level out the heterogeneity in DPI across monitors by pushing your lower-DPI displays to a higher virtual resolution than their native one, and then scaling this down. Combined with appropriate settings to change the DPI reported by the core protocol, or the appropriate Screen resources or other settings, this may lead to a more consistent experience.

For example, I could set my external 1440×900 monitor to “scale down” from a virtual 2880×1800 resolution (xrandr --output DP-1 --scale-from 2880x1800), which would bring its virtual DPI more on par with that of my HiDPI laptop monitor. The cost is a somewhat poorer image overall, due to the combined up/downscaling, but it's a workable workaround for poorly written applications.

(If you think this idea is a bit stupid, shed a tear for the future of the display servers: this same mechanism is essentially how Wayland compositors —Wayland being the purported future replacement for X— cope with mixed-DPI setups.)

Final words

Just remember, if you have a mixed DPI setup and it's not properly supported in X, this is not an X11 limitation: it's the toolkit's (or the application's) fault. Check what the server knows about your setup and ask yourself why your programs don't make use of that information.

If you're a developer, follow Qt's example and patch your toolkit or application of choice to properly support mixed DPI via RANDR. If you're a user, ask for this to be implemented, or consider switching to better applications with proper mixed DPI support.

The capability is there, let's make proper use of it.

A small update

There's a proof of concept patchset that introduces mixed-DPI support for GTK+ under X11. It doesn't implement all of the ideas I mentioned above (in particular, there's no Xft.dpi support to override the DPI reported by core), but it works reasonably well on pure GTK+ applications (more so than in applications that have their own toolkit abstraction layer, such Firefox, Chromium, LibreOffice).


Nella puntata precedente abbiamo visto che un “vero” reddito di cittadinanza, inteso come reddito di base incondizionato ovvero Universal Basic Income (UBI) di 300€/mese/persona, per corprire tutti i cittadini residenti in Italia (circa 55 milioni di persone) impatterebbe sul bilancio statale per circa 200G€/anno. Il peso effettivo sarebbe in realtà inferiore, perché l'UBI assorbirebbe (in parte o del tutto) un certo numero di sussidi che attualmente gravano comunque sul bilancio statale, con un peso effettivo potenzialmente inferiore ai 150G€/anno.

Se nella prima parte l'importo è stato scelto un po' a caso (giusto per avere qualche numero di rfierimento) e la discussione è stata incentrata sui risparmi resi possibili dall'UBI e su alcuni dubbi relativi alla struttura ed agli effetti del reddito incondizionato, in questa seconda parte delle mie riflessioni vorrei riflettere invece maggiormente sulla quantificazione dell'importo. A tal fine, vorrei innazi tutto riepilogare alcuni numeri chiave:

  1. il bilancio statale complessivo si aggira tipicamente sugli 850±50G€;
  2. il bilancio dell'INPS si aggira tipicamente sui 450±50G€, in massima parte (salvo circa 100G€) in pensioni;
  3. 300€/mese/persona sono appena sufficienti a superare la soglia di povertà solo per le famiglie piú numerose (5 e piú persone) nei luoghi meno costosi (paesini delle regioni meridionali); per gli altri nuclei non bastano nemmeno a quello

L'importo massimo

Volendo mantenere sostanzialmente inalterato il bilancio complessivo statale, ma volendolo trasformare interamente (entro i limiti discussi sotto) in UBI, e volendo incamerare anche la parte del bilancio INPS non dedicata alle pensioni, si potrebbe contare su qualcosa tra i 900G€ ed i 1000G€ (1T€).

Questo richiederebbe la privatizzazione di tutti i servizi attualmente finanziati dallo Stato. Oltre all'UBI, resterebbero comunque a carico del bilancio statale solo i parlamentari, i membri del governo e il relativo personale. Con una stima molto a braccio, supponendo 20K€/mese/persona (240K€/anno/persona) e contando qualche migliaio di persone, si arriverebbe ad una manciata di G€ (con 10K persone sarebbero 2.4G€). Anche volendo salire a 10G€, sono comunque valori che possiamo trascurare nei nostri calcoli (avendo una banda d'incertezza almeno 5 volte piú grande, su un valore mediano 90 volte superiore).

Con una semplice divisione tra l'importo disponibile (950±50G€) ed il numero di beneficiari (55 milioni di persone) otteniamo quello che possiamo considerare l'importo massimo (annuale) dell'UBI: arrotondando, l'importo a persona risulta essere 17±1K€/anno, ovvero (arrotondando ancora), tra i 1300€/mese ed i 1500€/mese (o poco piú).

(Volendo vedere la cosa diversamente, possiamo interpretare questi numeri come quello che lo Stato attualmente “spende1” per cittadino.)

Possiamo dire quindi che, volendo mantenere inalterato il bilancio statale, si potrebbe arrivare ad istituire un UBI di 1400±100€/mese, a patto di privatizzare tutto.

La privatizzazione totale

Uno dei punti sicuramente piú controverso della massimizzazione dell'UBI consumando la massima parte del bilancio statale è la privatizzazione totale dei servizi attualmente forniti dallo Stato stesso, che passerebbero quindi integralmente nelle mani dei privati.

La questione può essere affrontata da molteplici punti di vista (etici, economici, sociali, politici, …), ma quelli su cui noi ci soffermeremo saranno soltanto quello fiscale e quello etico-sociale.


Dal punto di vista fiscale, la privatizzazione ha un duplice effetto “strutturale”, piú un “bonus” una tantum. Il primo effetto strutturale è ovviamente l'eliminazione della spesa corrispondente dal bilancio statale (compensata, nell'ambito della nostra discussione, dall'introduzione dell'UBI). Il secondo effetto è un aumento degli introiti statali: le transazioni economiche associate alla gestione privata sarebbero infatti tassate, e supponendo una scala economica dello stesso ordine della spesa statale, si parlerebbe di una base imponibile di centiaia se non migliaia di miliardi di euro2; con un calcolo a braccio usando un'aliquota “mediana” del 30%, potremmo stimare un incremento del gettito fiscale tra i 100G€ ed i 300G€.

Il “bonus” una tantum sarebbe costituito dagli introiti dovuti al procedimento stesso della privatizzazione (vendita dallo Stato ai privati di immobili, annessi e connessi). Su questo non si possono ovviamente fare considerazioni “di lungo periodo”, ma tale bonus potrebbe avere utili applicazioni (ad esempio nell'abbattimento di parte del debito). Per contro, i 200±100G€ che abbiamo stimato dalle riforme strutturali potrebbero essere considerati sul piú lungo periodo, ad esempio favorendo una riduzione del carico fiscale, o per contro, nell'ottica dell'UBI “massimale”, con la redistribuzione di questo supplemento sempre all'interno dell'UBI, portando ad un incremento dello stesso tra i 150€ ed i 450€ al mese per persona.


La questione etica sulla privatizzazione dei servizi verte principalmente su due punti. Assunto che i servizi forniti dallo Stato siano (principalmente) servizi essenziali, e per i quali sia pertanto necessario garantire l'accessibilità a tutti i cittadini (e quindi a fortiori con un certo limite massimo di spesa per gli stessi) con un dato minimo di qualità, è possibile offrire le medesime garanzie delegando la fornitura dei servizi ai privati?

(In realtà l'assunzione di necessità è discutibile, soprattutto in una nazione come l'Italia dove il posto nel pubblico è abusato anche come merce di scambio elettorale. Ottimisticamente, si potrebbe sperare che in questa privatizzazione si arrivi almeno, come lato positivo, a sfrondare l'assunzione come strumento opportunistico, senza tuttavia affondare impietosamente le speranze di sopravvivenza dei corrispondenti nuclei familiari, vita la corposa natura dell'UBI.)

Ovviamente, consci dei limiti di qualità e garanzia di fornitura dei servizi da parte dello Stato (che è fortemente legata all'interesse diretto della cittadinanza nel richiedere tali servizi, come dimostrano le forti discrepanze non solo tra nazione e nazione, ma anche tra diverse regioni all'interno della medesima nazione), la domanda andrebbe posta non (necessariamente) nel senso di un certo limite minimo (di copertura e qualità) in senso astratta, ma quantomeno in termini di “non peggio di quello che fa lo Stato adesso” (anche tenendo conto della succitata variabilità).

La questione è la seguente.

Da un lato, nel fornire il servizio lo Stato ha (o quanto meno dovrebbe avere) la fornitura del servizio stesso, e non il profitto, come principale interesse; questo comporta da un lato che il servizio può essere fornito anche a condizioni in cui non sarebbe —per l'appunto— proficuo fornirlo; dall'altra —per lo stesso motivo— non c'è un particolare incentivo a offrire i servizi in maniera efficiente, cosa che può portare al lievitare dei costi (che lo Stato può coprire tramite indebitamento e/o aumento del carico fiscale), con i conseguenti danni collaterali sulla collettività.

Dall'altro lato, il privato ha come principale interesse il profitto: la fornitura del servizio è solo secondaria, asservita alla possibilità di ricavare un profitto dalla sua fornitura. La principale conseguenza di questo è il rischio il servizio non venga fornito laddove le condizioni per la sua fornitura non permettano di realizzare un (adeguato) profitto.

È interessante come questa discussione si riagganci a certe riflession di Hayek circa la contestuale opportunità di alcuni monopolî, che possono “sovvenzionare” l'elevato costo del portare i proprî servizi in zone particolarmente remote e disperse “spalmando” l'innalzamento dei prezzi coinvolgendo zone piú facilmente servite e piú densamente popolate —cosa che non si potrebbero fare in un regime piú competitivo, per il quale l'innalzamento dei prezzi allontanerebbe la clientela verso offerte che possono tenere i prezzi piú bassi non servendo le aree meno accessibili.

La questione quindi si potrebbe porre in termini di se, ed eventualmente come, lo Stato potrebbe intervenire per incentivare la copertura di aree “non proficue”, ovvero la cui copertura porterebbe a costi eccessivi per i clienti. Presupposta la massimalità dell'UBI, l'unico strumento eventualmente a disposizione dello Stato sarebbe una fiscalità “vantaggiosa” per i privati che riescano ad offrire tale copertura3.

Un discorso piú approfondito si può fare per specifici servizi.


Guardando al panorama internazionale, la situazione da evitare assolutamente è quella del sistema sanitario statunitense, che pur con le sue punte d'eccellenza, rimane tra i (se non IL) meno efficienti, piú costosi e meno accessibili tra quelli dei paesi piú tecnologicamente avanzati. Le cause dei costi spropositati e dell'inefficienza del sistema USA sono molteplici, ma sono sostanzialmente legati al meccanismo dell'assicurazione privata ed alla scarsa copertura assicurativa. Esistono soluzioni piú efficienti, anche con sistemi sanitari privati (es. Giappone, Corea del Sud), e la chiave sta proprio nell'assicurazione sanitaria universale gestita dallo Stato. Questo potrebbe essere ottenuto ad esempio sostituendo quello che attualemnte è il carico del Sistema Sanitario Nazionale (che grava sulla fiscalità generale) con un meccanimo assicurativo (gestito ad esempio dall'INPS) obbligatorio4.


Un discorso simile a quello sulla sanità si dovrebbe fare anche per l'istruzione. L'obiettivo anche in questo caso dovrebbe essere di mantenere sul sistema scolastico un controllo sufficiente a garantire l'universalità dell'accesso, pur privatizzando l'istruzione, anche qui cercando quel delicato equilibrio tra i benefici che possono venire dalla competizione all'interno del sistema, ed il rischio che questo finisca con l'amplificare le differenze.

(Per chi fosse interassto ad approfondire, suggerisco la lettura dei lavori di Woessmann, che esplorano in dettaglio l'impatto della competizione sulla qualità e sui costi del servizio scolastico, in funzione anche delle strutture sociopolitiche esistenti; punto di partenza potrebbero essere i suoi studi sull'importanza del “capitale cognitivo” per la crescita economica delle nazioni —letture in particolare da suggerire a quelli convinti che l'istruzione segue la ricchezza, in faccia a tutte le evidenze del contrario.)


Piú in generale, bisogna considerare che con un UBI cosí elevato, in molte parti d'Italia (soprattutto le piú remote e meno servite) si può vivere (piú che) dignitosamente anche senza ulteriori introiti. Che una parte (anche consistente) dell'UBI venga assorbita dal pagamento di meccanismi assicurativi per poter ottenere quei servizi che attualmente garantisce (piú o meno bene) lo Stato è, in questo senso, perfettamente ragionevole —anzi, andrebbe sottolineato che questo è in un certo senso proprio l'idea di fondo dell'UBI: sostituire tutti i sussidî ed i servizi offerti dallo Stato con un importo erogato direttamente al cittadino e da questi gestito per accedere ai servizi offerti ora dai privati, con la speranza che da detta privatizzazione risulti un miglioramento dell'offerta.

Tutto ciò presuppone ovvimente che con la transizione all'UBI non vi sia un aumento esplosivo dei prezzi di ogni cosa (“tanto la gente prende almeno 1300€/mese in piú”), che finirebbe in men che non si dica con l'assorbirebbe l'UBI già solo per il sostentamento di base. (E vista la scarsa lungimiranza della classe imprenditoriale italiana, un tale scenario non sarebbe nemmeno la parte meno realistica di queste considerazioni.)

E se da un lato è vero che una tale esplosione dei prezzi porterebbe ad un corrispondente aumento del gettito fiscale, che potrebbe andare a finanziare un incremento dell'UBI (innescando un meccanismo circolare del quale se e quando avrò tempo e voglia studierò l'eventuale esistenza di punti fissi o punti limite), è anche vero che sarebbe ben piú opportuno (e ragionevole) che anche in questo lo Stato eserciti una funzione di sorveglianza (ma, se andiamo a rivedere come andò con l'euro, è legittimo chiedere se ne abbia le capacità).


Un altro calcolo sui possibili importi da scegliere per l'UBI si potrebbe effettuare partendo da quelle che sono le soglie d'esenzione IRPEF: vista la varietà delle stesse, consideriamo i due possibili valori estremi, arrotondandoli a 3000€/anno e 8100€/anno, ovvero rispettivamente 250€/mese e 675€/mese.

Visto che con i 250€/mese/persona ci troveremmo addirittura al di sotto dei 300€/mese/persona già trattati la volta scorsa, soffermiamoci invece sull'estremo superiore, magari arrotondato a 700€/mese/persona, piú del doppio di quello visto allora.

Il costo complessivo dell'UBI salirebbe in questo caso a quasi 500G€/anno (circa la metà dell'importo massimo visto sopra); anche considerando i possibili risparmi (largamente invariati rispetto a quelli visti la volta scorsa, con la possibile eccezione degli stipendi del pubblico) che potrebbero farlo scendere di 100G€/anno o giú di lí, ci troviamo comunque davanti ad una spesa molto piú difficile da sostenere senza privatizzare comunque una certa parte dei servizi (a meno di non considerare un'auspicabile crescita di introito per lo Stato, dovuta almeno in parte anche alla diversa fiscalizzazione che l'UBI comporterebbe).


Un punto chiave (che potrebbe risponde anche ad un quesito già posto la volta scorsa, ma finisce con il sollevare invece altri dubbi non discussi alla puntata precedente, e di cui quindi parleremo qui) riguarda proprio la tassazione: con l'introduzione dell'UBI, si potrebbe eliminare la “no tax area”, considerando la base imponibile esclusivamente in base alla tipologia del reddito, e non in base all'importo.

Una questione da affrontare in questo caso è la potenziale divergenza di trattamento tra percettori dell'UBI (cittadini residenti) e non percettori (non cittadini e/o non residenti): per i secondi diventa pure imponibile l'intero reddito, o per loro rimarrà istituita una “no tax area” che viene semplicemente “coperta” automaticamente dall'UBI per i percettori? (Ed ancora piú interessante sarà vedere come si andrà a mischiare questa scelta, qualunque essa sia, con gli accordi internazionali.)

Per inciso, possiamo osservare che la “promozione” dell'intero reddito da lavoro (dipendente o autonomo che sia) porterebbe anche ad un maggiore introito per lo Stato senza con questo inficiare la positività dell'impatto dell'UBI sul reddito disponibile dei percettori (almeno non direttamente, e quindi assumendo invariati stipendi e costi della vita —un dubbio già sollevato anche la volta scorsa).


Come già detto, mentre per i 300€/mese/persona si poteva sperare di ragionare su risparmi e ritorni di cassa tali da poter coprire il bilancio (soprattutto sfruttando i fondi del PNRR che verrà invece bruciato in falò di buzzwords (PDF) per l'avvio del programma), per importi piú elevati, come i qui discussi 500€/mese/persona, diventerebbe comunque necessario una riduzione dei servizi statali, molto probabilmente (ed auspicabilmente, se l'alternativa è la cessazione dell'erogazione del serizio) con una transizione verso la loro privatizzazione.

La questione diventa a questo punto la non banale scelta di quali servizi trasferire ai privati, e quali mantenere sotto il controllo (soprattutto finanziario) del governo. Il primo passo sarebbe andare a vedere come è attualmente distribuito il bilancio statale, e vedere quali servizi potrebbero essere trasferibili liberando un importo complessivo comparabile con il nuovo peso in bilancio dell'UBI. (Mi riservo di fare questi calcoli in un futuro in cui avrò il tempo e la voglia di farli.)

L'importo minimo?

Volendo fare invece un discorsi “inverso” rispetto a quello fatto per il tetto massimo, l'importo dell'UBI lo si potrebbe calcolare assumendo di non intaccare né il bilancio complessivo statale, né i servizi erogati al cittadino. Con questo approccio, si dovrebbe quindi ragionare in termini di sussidî, raccogliendo tutte le forme di sussidio attualmente erogate dallo Stato, e redistribuendo l'importo in forma di UBI.

In un certo senso, questo è il reciproco del calcolo per i risparmi fatto nella puntata precedente. E se i calcoli fatti lí sono validi, si può contare su qualcosa come 100G€ o poco piú, un importo che redistribuito risulterebbe in circa 150€/mese/persona: un importo confrontabile con i famosi “80€ di Renzi” (divenuti “Bonus 100” in tornate piú recenti), ma nella forma di un reddito incondizionato.

Il vantaggio di un simile importo sarebbe la possibilità di coprirlo senza carico sul bilancio statale. Lo svantaggio è che l'importo è decisamente esiguo: senza essermi fatto i conti, sospetto per gli attuali percettori del sussidio pentastellato si tratterebbe di un passo indietro (con grande gioia di altri), e considerando anche l'opzione risparmio sulle pensioni, potrebbe risultare in un'iniziativa alquanto impopolare.

D'altronde, il vero nodo da risolvere è: riuscirebbe un importo cosí esiguo ad essere comunque una soluzione efficace? La risposta a questa domanda dipende da quale si intende che sia lo scopo dell'UBI. Se si tratta di una forma semplice (ed incondizionata, quindi “facile” da erogare) di supporto alle famiglie piú bisognose, potrebbe comunque “salvare” qualcuno dalla miseria, e quindi la si potrebbe comunque considerare efficace. Se però si mira a scardinare certi meccanismi di sfruttamento (come discusso piú avanti), è probabile che 150€/mese/persona non siano sufficienti a sollevare le persone oltre la soglia della ricattabilità, amplificando invece il timore della perdita di potere d'acquisto senz la forza di bilanciarne l'effetto come potrebbe fare un importo piú cospicuo.

Altri dubbi

Rimango dell'idea che un UBI sia una strategia perseguibile, ed oserei direi rivoluzionaria. Soprattuto, sarebbe un'idea ben migliore dell'attuale cosiddetto “reddito di cittadinanza”, che considero semplicemente “una porcata” (sebbene non certo per i motivi per cui viene combattuto dagli imprenditori che oggi lo usano come scusa per dire «non trovo gente disposta a lavorare onestamente», quando intendono [[«non trovo gente disposta a fare lo schiavo 12 ore al giorno per 7 giorni la settimana a 300 euro al mese in nero»|#sfruttamento]]), soprattutto con un piú dettagliato ragionamento sugli importi (possibilmente avendo a disposizione dati che per me non sono facilissimi da reperire).

Personalmente, trovo che uno dei principali argomenti a favore del reddito di cittadinanza propriamente inteso sia lo scardinamento della retorica del sussidio, e l'associato stigma del parassitismo. In questo senso lo si può considerare uno dei piú potenti “equalizzatori sociali”, riducendo se non eliminando almeno quella parte di discrepanza iniziale legata allo stato di necessità.

Mi viene da riflettere che forse proprio per questo non verrà mai preso seriamente in considerazione da nessuna forza politica in Italia, che non abbia speranza in un contesto politico-culturale come quello italiano, dove da 400 anni la classe “impreditoriale” preferisce la rendita all'investimento, e la classe politica le rimane asservita su tutto lo spettro (dal centro-“sinistra” alle varie sfaccettature della destra, passando per il democristianissimo M5S), senza alcun sussulto di dignità, senza nessuna prospettiva per un futuro di crescita (come dimostrato, tra le tante cose, anche dai miseri investimenti nella ricerca di base nel già citato PNRR), optando al piú per un contentino, qualcosa che non può essere definito in altro modo che appeasement nei confronti del popolino (perché alla fine è a questo che si riduce l'attuale sussidio di disoccupazione che infanga il nome del reddito di cittadinanza), quando non direttamente mercificazione del voto. Dove dovremmo trovare —in questo contesto politico-culturale, dicevo— anche solo un politico di spessore che riesca ad affrontare con la dovuta saggezza i punti piú delicati dell'implementazione di un UBI?

A peggiorare la cosa, come già detto, ai dubbi sollevati la volta scorsa se ne aggiunge un altro, proprio in questa prospettiva.

Non percettori

In un contesto in cui fosse implementato un vero reddito di cittadinanza, che copra per l'appunto tutti i cittadini residenti (come nella proposta inizialmente considerata), i temi della cittadinanza e della residenza diventano ancora piú caldi di quanto non lo siano adesso.

Non è infatti un mistero che già adesso la cittadinanza abbia un'enorme significanza in termini di accessibilità a risorse ed opportunità, al punto che alcuni studiosi hanno avanzato (soprattutto a fronte di un calo dell'interesse nella partecipazione sociale e politica attiva) l'ipotesi che al giorno d'oggi la cittadinanza si possa considerare alla stregua di un affitto. È questo peraltro uno dei motivi per cui la destra pubblicamente, e una certa “sinistra” dietro le quinte, continuano ad opporsi ad una gestione piú sana della questione dell'immigrazione (clandestina e non, dei migranti economici come dei rifugiati) —peraltro perdendo cosí anche la possibilità di sfruttare, in maniera socioeconomicamente vantaggiosa, le competenze che dall'estero possono venire, accontentandosi invece di manodopera in nero a bassissimo costo (e voglio dire, non sto mica chiedendo loro di sposare in toto la tesi di Bryan Caplan). Ma anche questo, come vedremo, è un segno della collusione dell'intero spettro della politica con la già citata meschinità della mentalità “imprenditoriale” delle nostre parti.

Non è difficile immaginare come l'introduzione di un UBI andrebbe ad amplificare la questione. Da un lato, l'UBI assorbirebbe (parte delle) risorse che potrebbero essere dedicate alla gestione dei flussi di migranti (accoglienza, smistamento, etc; i famosi “35 euro al giorno ed alberghi di lusso”, per intenderci). Dall'altro, la presenza stessa dell'UBI renderebbe la cittadinanza ancora piú appetibile, facilitando argomenti per la restrizione dello ius soli e piú in generale tutti gli argomenti che dipingono lo straniero come aspirante parassita.

Al di fuori del dibattito politico, la distinzione tra percettori e non percettori dell'UBI (che nella proposta considerata significa la distinzione tra cittadini residenti e non cittadini/non residenti) comporta anche un'amplificazione della differenza in fragilità economica, soprattutto nell'ipotesi di importi UBI che andrebbero ad assorbire anche parte dei servizi (quali sanità e salute) che attualmente sono forniti dallo Stato. Ma anche per importi tutto sommato limitati come quelli contemplati la volta scorsa, la differenza tra percepire e non percepire l'UBI comporta una non indifferente differenza di ricattabilità sul mercato del lavoro.

Perché ricattabiltà?

Da sempre gli imprenditori (ed i gruppi di interesse che fanno loro da megafono, ivi incluso gran parte del giornalismo, ma anche della politica5) lamentano la difficoltà nel trovare dipendenti, vuoi che siano i giovani bamboccioni e choosy, vuoi che siano i percettori di quella porcata di cosiddetto “reddito di cittadinanza”. Pochi invece hanno il coraggio di denunciare pubblicamente il segreto di Pulcinella: che il vero problema sono gli stipendi da fame, spesso in nero, ed in condizioni di lavoro che hanno piú dello schiavismo che del libero scambio di prestazioni e servizi, e che il vero “dramma” degli imprenditori a fronte di ogni iniziativa di supporto a giovani e disoccupati sia come queste iniziative riducano le possibilità di sfruttamento dei soggetti piú deboli. Non a caso, in parallelo alle lamentele, abbiamo il massiccio (e spesso illegale) sfruttamento dei migranti (vittime del capolarato, prevalentemente in agricoltura), da sempre soggetti particolarmente deboli, sia dal punto divista economico, sia dal punto di vista giuridico.

Nel dramma degli stranieri è però opportuno ricordare che anche tra i cittadini residenti non mancano i ricattati (sebbene spesso6 con meno rischi per la vita): docenti dei “diplomifici privati” disposti ad essere pagati meno di quanto percepiscono sulla carta solo per avere la possibilità di fare punteggio, cuochi e camerieri (soprattutto stagionali, ma anche no) che accettano di lavorare ben oltre il numero di ore previste dal contratto (e dalla paga, salvo mance), operai in tutti i settori che non denunciano le diffusissime violazioni dei protocolli di sicurezza, e tutti coloro che accettano di lavorare in nero, o pagati una miseria, o a partita IVA, semplicemente perché opporsi allo sfruttamento significa spesso non solo perdere quel posto di lavoro, ma anche entrare nella lista nera degli indesiderati, e perdere cosí ogni possibilità di trovare lavoro.

Questo è l'aspetto su cui l'UBI può agire: una rete di protezione che possa dare agli sfruttati la possibilità di contrastare lo sfruttamento. (E pur ritenendo l'attuale “reddito di cittadinanza” una porcheria malfatta, una cosa gli si deve riconoscere: ha mostrato quanto possa essere utile uno strumento del genere, anche quando costruito ed applicato male.) Tale protezione, però, varrebbe solo per i suoi percettori; gli “altri” (soprattutto migranti ed altri emarginati) rimarrebbero nelle medesime condizioni di ricattabilità (e sfruttamento), se non in condizioni peggiori: un UBI piú corposo che andrebbe a sostiuirsi alla fornitura di servizi come istruzione e sanità renderebbe infatti tali servizi ancora piú inaccessibili per i non percettori in cattive condizioni economiche.

Di piú, l'aumento della fragilità dei non percettori renderebbe anche lo strumento meno efficiente per i percettori stessi, dando all'imprenditore una solida (per quanto eticamente discutibile) alternativa al miglioramento delle condizioni di lavoro: lo sfruttamento dei non percettori.

Una soluzione al problema potrebbe essere quella di estendere l'UBI a tutti i residenti (indipendentemente dalla cittadinanza). Sinceramente, vista la scarsa capacità dimostrata finora dalla nostra classe politica di gestire in maniera corretta ed intelligente i flussi migratori, rimango alquanto dubbioso della sostenibilità di un tale approccio, anche se lo si potrebbe considerare eticamente piú solido e “di sinistra” di altri.

L'altra soluzione, altrettanto immediata (ma non per questo piú popolare, soprattutto in certi ambienti) sarebbe contrastare lo sfruttamento alla radice: controlli nelle aziende. Ma in un Paese dove già il solo proporre una cosa del genere, o dire di progettare di assumere personale per poterlo fare, è considerato sentimento anti-imprenditoriale, non è difficile immaginare come una scelta del genere sarebbe un suicidio politico non meno di quella precedente.

(Peraltro, la seconda è una soluzione che si potrebbe applicare già oggi, visto che le leggi ci sono, quello che manca è la volontà di applicarle, e mi sembra legittimo chiedere come mai.)

Il vero problema?

Forse, il principale problema dell'UBI non è la scelta della soluzione tecnica ai dubbi sollevati finora (minori, tassazione, i possibili abusi), o la scelta dell'importo, o la scelta della strategia da adottare per ridurne il peso sul bilancio statale, ma semplicemente la profonda meschinità di un'economia ed una politica che si ritrovano solo nella rendita e nello sfruttamento.

  1. con efficienza che possiamo ottimisticamente definire “discutibile”, ma bisognerebbe vedere se ed in che misura il privato riuscirebbe a fare di meglio, e con quali costi per gli utenti —ma di questo parleremo piú avanti. ↩

  2. da queste andrebbero escluse ovviamente le spese del personale, per le quali ai fini del gettito fiscale la differenza pubblico/privato non comporta particolari differenze. ↩

  3. esempi in cui lo strumento della riduzione del carico fiscale per “pilotare” l'iniziativa industriale privata è stato usato —insieme ad altri— con successo si trovano per esempio nella realizzazione dei piani quinquennali di sviluppo della Corea del Sud, che nel giro di una trentina d'anni hanno portato il Paese dal zoppicante reduce di una guerra ad una potenza industriale e tecnologica. ↩

  4. si potrebbe ragionare a questo punto anche sull'opportunità di una detrazione automatica dall'UBI —si pressuppone che il premio assicurativo sia (notevolmente) inferiore— ma nel caso in cui la copertura sia a carattere familiare, questo meccanismo andrebbe a complicare la già incerta situazione dell'UBI per i minori. ↩

  5. e taciamo qui dell'ipocrisia di chi come esponente pubblico si scaglia contro lo sfruttamento ed il lavoro nero, salvo poi farsi scoprire come aguzzino. ↩

  6. e forse nemmeno tanto, vista la mortalità per incidenti sul lavoro. ↩

UBI ed ob(ol)i

Qualche tempo fa ho provato a fare dei calcoli “spannometrici” per avere un'idea di quanto potrebbe costare (allo Stato) un vero Reddito di cittadinanza (non quella porcata di “sussidio di disoccupazione esteso” appiopatoci dai governi del Movimento 5 Stelle).

Il calcolo di base

Supponiamo di voler coprire, con il suddetto reddito di cittadinanza, i cittadini (duh) italiani, che siano residenti in Italia: parliamo quindi di circa 55 milioni di persone. Supponiamo inoltre di porre il valore del reddito a 300€/mese/persona1. L'erogazione complessiva (per il bilancio statale) sarebbe quindi di 300×12×55 (milioni di euro), ovvero 198 miliardi di euro l'anno, che per semplicità possiamo arrontondare a 200G€/anno.

È tanto? È poco?

Per avere un'idea dell'ordine di grandezza di questa quantità possiamo andare a vedere i consutivi dei bilanci degli ultimi anni dello Stato e dell'INPS. Arrotondando, il bilancio complessivo statale si muove tra gli 800G€ e i 900G€, mentre quello dell'INPS2 tra i 400G€ e i 500G€.

Dal punto di vista dei percettori, 300€/mese/persona netti garantiti possono essere cruciali per la sopravvivenza (per le fasce meno ricche), un contributo utile se pur non essenziale (per le fasce “centrali” di reddito), o una nullità (per le fasce piú ricche). Per avere un'idea, possiamo guardare alle statistiche ISTAT sulla povertà per il 2019, le cui tabelle finali definiscono le linee di povertà in base a luogo di abitazione e numero (e distribuzione) dei componenti del nucleo familiare: 300€/mesi/persona sono appena sufficienti a superare la soglia di povertà solo per le famiglie piú numerose3 (5 e piú persone) nei luoghi meno costosi (paesini delle regioni meridionali).

I risparmi

Torniamo un momento ai 200G€/anno del costo (per lo Stato) di questo ipotetico reddito di cittadinanza.

Una delle idee fondanti dietro l'UBI (Universal Basic Income) è che esso dovrebbe essere sostitutivo (piuttosto che complementare) alla stragrande maggioranza (se non la totalità) dei servizi pubblici resi dallo Stato: con una prospettiva del genere, i 200G€/anno andrebbero a sostituirsi (quasi interamente) agli 800G€ (e passa) annuali del bilancio statale. Un bel risparmio, ma di tutt'altro che facile attuazione (il periodo di transizione, in particolare, sarebbe alquanto … interessante da gestire).

(Come prospettiva diversa, si potrebbe considerare di investire lo stesso budget (800G€/anno) per aumentare di 4 volte l'importo del reddito di cittadinanza, portandolo quindi a 1200€/mese/persona, accompagnando questa riconfigurazione con una soppressione della totalità dei servizi statali.)

Possiamo però considerare un approccio piú morbido. L'introduzione dell'UBI porterebbe, per cominciare, all'eliminazione di ogni altra forma di sussidio statale, o gran parte di esse.

Reddito (di cittadinanza) contro “reddito (di cittadinanza)”

La prima cosa a dover andare via è il famoso “reddito di cittadinanza” pentastellato.

Grosso vantaggio dell'UBI rispetto ad altre forme di sussidio è la sua semplicità burocratico-amministrativa: essendo per sua natura incondizionato, il (vero) Reddito di Cittadinanza non richiederebbe tutto l'apparato burocratico (calcoli, domande, verifiche) e le sue conseguenze (in particolar modo, i ritardi) associati invece alle misure che da questo verrebbero sostituite. (La controparte di questa semplicità è un'omogeneità di importi che potrebbe essere considerata ingiusta; ma di questo parleremo piú avanti.)

La soluzione pentastellata costa (al momento) tra i 5G€ e i 10G€ l'anno, di cui un 10-20% circa diretto ai Centri per l'Impiego per la famosa “fase 2” con l'istituzione dei “navigator” che dovrebbero aiutare i percettori a trovare lavoro. Con l'UBI, si elimina il problema della lentezza nell'evasione delle domande e si elimina il baraccone di dubbia utilità nato dalla pretesa di trasformare questo sussidio in un “ponte per le assunzioni”.

Sussidi di disoccupazione

La legislazione vigente al momento della stesura di questo articolo prevede l'esistenza di una certa varietà di ammortizzatori sociali. Tra queste, le molteplici indennità di disoccupazione, quali NASpI, DIS-COLL e ASDI, differenziate per le categorie a cui vengono appplicate, per le circostanze di applicazione, per la durata, per l'importo.

Anche in questo caso, l'UBI come alternative propone una netta semplificazione. Non sono riuscito (al momento) a trovare dati sul numero di indennità corrisposte in questi anni ed il loro importo (complessivo), quindi non posso dire a quanto ammonterebbe il risparmio (per Stato ed INPS) associato all'eliminazione delle stesse.

L'eliminazione delle indennità di disoccupazione e la sua sostituzione con l'UBI è concettualmente e praticamente un'azione molto diversa dall'intervento precedentemente descritto: le prime sono infatti legate all'importo dello stipendio (l'idea è di evitare un tracollo improvviso nello stile di vita per superare un periodo —che si suppone breve— di crisi, fino al nuovo lavoro), laddove l'UBI è fisso: la sostituzione non è quindi equivalente, ed il vantaggio (o svantaggio) dell'UBI rispetto all'indennità di disoccupazione dipendono da una varietà di fattori che coinvolgono non solo l'importo degli stipendi, ma anche l'oculatezza della gestione finanziaria del percettore, nonché la durata del periodo di disoccupazione. Di questo parleremo piú avanti.

Cogliamo però adesso l'occasione per menzionare un (piccolo) risparmio legato all'abolizione delle indennità in favore dell'UBI: l'abolizione del corrispondente prelievo (1,3% dell'imponibile) per il finanziamento dei sussidi uscenti: l'importo è modesto (su uno stipendio sui 1500€/mese parliamo di circa 20€/mese), ma comunque da tenere in conto.

Stipendi del pubblico

È una triste realtà italiana (e non solo) che il “posto pubblico” è usato come strumento clientelare, sia in forma diretta4, sia in forma indiretta5.

Un eventuale UBI non potrebbe evitare questi meccanismi clientelari (benché ci sia da sperare che ne riduca la necessità aiutando i nuclei familiari a raggiungere o superare la soglia di sussistenza e quindi di “ricattabilità”), ma potrebbe depotenziarlo se tutti gli stipendi nel pubblico venissero ridotti (al netto) di un importo pari a quello erogato tramite UBI.

Il risultato sarebbe, per i dipendenti nel pubblico, un inalterato introito (almeno su base individuale), laddove impiegati nel privato si ritroverebbero con 300€/mese/persona in aggiunta al loro (inalterato) stipendio. Dell'etica di questa discrepanza parlerò piú avanti, ma in termini di costi questa operazione porterebbe indubbi beneficî.

Dato l'importo costante dell'UBI (e quindi dell'importo da scalare dagli stipendi, assumendo non vi siano importi inferiori ai 300€/mese), per calcolare il risparmio attuato da questa soluzione basta moltiplicare i 300€/mese/persona per 12 mesi per il numero di dipendenti pubblici: si parla di circa tre milioni e mezzo di persone, portando il risparmio a poco meno di 13G€.

Le pensioni

Anche qui si tocca un tasto dolente, ma è una triste realtà da fronteggiare il fatto che decenni di “patto intergenerazionale” non soddisfatto e certi abusi del sistema pensionistico come strumento clientelare hanno reso la sua gestione una delle piú pesanti palle al piede del bilancio statale italiano.

Per calcolare il risparmio che si avrebbe scalando, come fatto per gli stipendi dei dipendenti pubblici, le pensioni di un importo pari a quello erogato tramite UBI, ancora una volta, ci appoggiamo ai dati INPS per scoprire che in Italia vengono erogate poco meno di 14 milioni di pensioni “previdenziali” (almeno per il 2019), portando il “risparmio” a circa 50G€ l'anno.

(Se a queste aggiungessimo anche le oltre 4 milioni di pensioni assistenziali, potremmo risparmiare altri 14G€ e passa, ma non sono sicuro che tutte le pensioni assistenziali superino i 300G€/mese.)

A quanto stiamo?

Sommando i succitati possibili contributi potenzialmente risparmiabili concorrentemente all'introduzione dell'UBI otteniamo, sui 200G€/anno di spesa, un risparmio che oscilla tra i 70G€ e 100G€; a questi risparmi andrebbero aggiunti quelli ottenuti con la soppressione o riduzione (al solito, di 300€/mese/persona) di sussidî, indennità di disoccupazione, ed altre forme assistenziali che qui non sono state conteggiate. Supponendo da questi ultimi un contributo marginale, al primo anno dell'introduzione dell'UBI il suo costo effettivo sarebbe quindi non superiore ai 130G€ (probabilmente in realtà anche meno, con in piú i benefici delle associate semplificazioni burocratico-amministrative).

La scappatoia del momento?

A seguito della pandemia di COVID-19 di quest'anno, l'EU ha istituito un Recovery Plan da cui l'Italia riceverà circa 80G€ a fondo perduto e 120G€ di prestiti. Il notevole e diffuso scetticismo sulla capacità dell'Italia di spendere tali soldi in maniera opportuna è ben giustificato da certe scelte politico-economiche degli ultimi anni (soprattutto se per ultimi si intende ultimi 45).

I 200G€ complessivi capiterebbero a fagiolo per coprire completamente l'UBI per un anno, o potrebbe aiutare a completare la copertura dell'UBI, senza ulteriori spostamenti di spesa, per i prossimi due o tre anni —e sarebbe, sotto molto punti di vista, una spesa ben piú oculata e condivisibile di molte delle proposte di questo governo.

Certo sarebbe interessante capire se una scelta di questo tipo potrebbe essere fatta rientrare nei criteri e nelle condizioni per l'erogazione del fondo, o se dalla prospettiva dei controllori europei cositutuirebbe una violazione del patto. (Personalmente, con il potenziale di rilancio economico dell'UBI, ritengo ci si potrebbe trovare a recuperare nei prossimi anni una buona dose di introiti con cui ripagare prestiti e interessi, ma ovviamente la mia è una considerazione afflitta da pesante faziosità —dopo tutto, è la mia proposta.)

I dubbi

Non mi dilungherò sui benefici teorici di un UBI (non è quello che mi interessa discutere qui). Voglio però analizzare alcuni aspetti critici della sua implementazione.

La gestione dei minori

Il primo problema è di tipo tencico: la gestione dei minori. A chi andrebbero i 300€/mese del minore? La difficoltà sorge dalla necessità di conciliare da un lato l'idea che l'UBI sia diretto al cittadino residente (per cui i soldi dovrebbero andare al minore), dall'altro che essodovrebbero servire al sostentamento dello stesso (compito, nel caso del minore, degli adulti a cui è affidato).

Estremizzando la prima richiesta, i soldi potrebbero venir accantonati in un fondo da cui il minore potrà prelevarli sotto opportune condizioni (quando ancora minore) o in piena libertà una volta diventato maggiorenne (300€/mese per 18 anni fanno poco meno di 64K€). Il problema di questo approccio è che l'adulto responsabile del minore non avrebbe alcun supporto al suo sostentamento, a meno di non essere (ad esempio) cointestatario del fondo, e potervi quindi accedere (anche qui, sotto opportune condizioni).

All'altro estremo, i soldi andrebbero direttamente al tutore, con la fiducia che questi vengano spesi (o altrimenti gestiti) a favore del minore in questione. Ed ovviamente, nel caso di piú tutori (come è tipicamente il caso, con due genitori), la domanda diventa: a quale, o distribuiti in che misura? si decide al momento della nascita, con la possibilità di modificare la scelta con il consenso di tutti? E possiamo facilmente immaginare la polveriera che la gestione di questi soldi diventa nel caso di separazione o divorzio.

Cosa succede poi, nel secondo caso, nel momento in cui il minore raggiunga la maggiore età? I tutori si troverebbero da un mese all'altro (ma potendo pianificare) con 300€/mese (a minore) in meno, ma generalmente con le stesse spese (a meno che, al compimento dei 18 anni, il minore in questione non decida di andar via di casa di punto in bianco), con la potenzialità che la situazione diventi causa di un conflitto interegenerazionale legato ad una esplicita (e potenzialmente non gradita, per quanto giustificata) richiesta di contribuire alle spese di famiglia.

Perché anche ai ricchi?

La domanda piú “comunista” sull'UBI è: perché ne dovrebbero beneficiare anche i ricchi? Secondo una famosa massima di Don Lorenzo Milani, infatti

Non c'è nulla che sia ingiusto quanto far le parti uguali fra disuguali
Don Lorenzo Milani, Lettera ad una professoressa

La risposta è semplice e pragmatica: perché la complessità associata ad un UBI “selettivo” non vale la pena. Uno dei principali vantaggi dell'UBI rispetto ad altre forme di stato sociale è la sua semplicità, con i conseguenti notevoli risparmi di gestione. Rendere l'UBI selettivo, oltre al nome (non sarebbe piú universale, o di cittadinanza), ne ammazzerebbe anche la semplicità: a cosa dovrebbe essere legata la sua erogazione? Alla dichiarazione dell'anno precedente? A quella dell'anno corrente, con misure correttive per l'anno successivo o in fase di pagamento delle tasse?

Queste complessità assorbirebbero gli eventuali risparmi sull'erogazione dell'UBI, andando per di piú a pesare in primis sui cittadini che meno se ne dovrebbero preoccupare (con la supplementare complessità nella dichiarazione dei redditi). In che modo infatti dovrebbe essere gestita la differenziazione?

Le possibilità sono due: o il reddito viene erogato solo a chi ne ha diritto, cosa che richiede informazione adeguata (quanti aventi diritto non verranno nemmeno a sapere di averlo, tale diritto?), la necessità di sbrigare le necessarie carte, e gli inevitabili ritardi legati alla verifica dell'idoneità; o il reddito viene erogato in maniera incondizionata, ed in fase successiva si dovrebbe procedere ad una restituzione nel caso l'idoneità non fosse in realtà stata raggiunta: ad esseren colpiti maggiormente, in tal caso, sarebbero i redditi piú bassi al limite della percepibilità, per i quali anche un semplice errore di calcolo o svista farebbe la differenza tra il dover restituire 3600€ o no.


Un altro punto che richiede attenzione è l'eventuale tassazione dell'UBI. La fiscalità italiana comprende varie soglie di esenzione in base all'importo e tipologia del reddito. La domanda a cui trovare risposta è se, con l'inclusione dell'UBI, sia necessario rivedere le soglie di esenzione, ed eventualmente in che misura, in modo da un lato di evitare che ci si ritrovi con meno reddito disponibile dopo l'introduzione dell'UBI, e dall'altro da parzialmente compensare il fatto che chi gode già di un reddito notevole non trae particolare beneficio dall'UBI.

In effetti, con una opportuna calibrazione del regime fiscale, si potrebbe probabilmente anche far sí che, al di sopra di un certo reddito (quello che potrebbe essere il reddito oltre cui sarebbe “ingiusto” percepire l'UBI), il carico fiscale finisca con il coprire interamente l'importo erogato.

Discrepanza pubblico/privato

Un altro punto contenzioso nella mia proposta è sicuramente la discrepanza tra dipendenti del pubblico e dipendenti del privato. Perché i dipendenti pubblici dovrebbero essere “penalizzati” (o piuttosto “non favoriti”) dall'introduzione dell'UBI?

Ho già introdotto una parziale spiegazione quando ho presentato il tema: piaccia o non piacca, e per quanto la cosa possa non essere universale, è indubbio che il “posto fisso nel pubblico” sia stato (e sia tuttora, e rimarrà per sempre) una non indifferente sorgente di clientelismo, ed una forma, per quanto parziale, di assistenzialismo. In linea con questa riflessione, ed essendo la mira ultima dell'UBI, almeno in teoria, la sostituzione di ogni altra forma assistenziale, non dovrebbe sorprendere piú di tanto la scelta di scalre l'UBI dagli stipendi pubblici come proposto anche per le altre forme di assistenzialismo.

Sia beninteso che in questo argomento non rientra quello stereotipo che —benché non totalmente infondato, come tutti gli stereotipi— fa di tutta l'erba un fascio, eguagliando il dipendente pubblico al fancazzista o parassita: il discorso si riferisce esclusivamente all'uso clientelare del posto pubblico, indipendentemente dallo sforzo lavorativo dell'assunto. Scalare l'UBI dallo stipendio è una strategia che può aiutare a depotenziare questo meccanismo. Non è quindi intesa come azione “punitiva” nei confronti dei “fannulloni del pubblico” (ed infatti non punisce: semplicemente non remunera), ma come disincetivo a tale abuso.

È indubbiamente vero che la scelta finisce con il colpire anche chi prenda il proprio impiego nel pubblico seriamente; ma d'altronde è anche vero che —per come stanno le cose ora— costoro sono molto piú colpiti dal parassitismo di chi invece tale impiego lo vive solo nella forma superficiale dell'assistenzialismo e del clientelismo, senza possibilità di contrasto: perché chi lavora sa benissimo chi tra i colleghi abbonda di pause ed assenze, riesce sempre a non farsi trovare, e anche quando è presente è come se non lo fosse —cosí come conosce la connivenza dei superiori.

Prima di occuparci del mancato supplemento dell'UBI, sarebbe piuttosto utile trovare un modo per scardinare questi meccanismi, ed evitare che l'impiego pubblico diventi una roccaforte inespugnabile anche del peggior menefreghismo.

Come ho già detto, l'UBI non risolve il problema né dell'uso clientelare del pubblico impiego, né del disimpegno del fannullonismo. Lo scalamento dell'UBI dagli stipendi pubblici aiuterà però a rendere gli stessi, seppure marginalmente, meno appetibili.

I rischi

L'introduzione di un UBI porta inevitabilmente dei rischi. Vediamone alcuni.

L'abuso dell'«a persona»

L'idea è semplice: se ogni nucleo familiare riceve 300€/mese/persona, facendo piú figli si avranno piú soldi. Con 4 figli, siamo già a 1200€/mese solo dalla prole, puliti puliti. Praticamente uno stipendio.

È indubbio che il rischio ci sia, ed è altrettanto indubbio che non mancherà chi abuserà della cosa. Ma a ben pensanrci, è davvero una cosa tanto negativa?

L'Italia è da anni in crisi demografica, grazie al crollo delle nascite. La popolazione è sostanzialmente stabile da anni solo grazie all'influsso migratorio. Il numero di giovani (sotto i 14) è quasi la metà del numero di anziani (sopra i 65), minacciando il ricambio generazionale.

In questa prospettiva, il possibile incremento della popolazione potrebbe dare una bella spinta al rinnovo demografico. E come per altri sussidî, l'UBI sarebbe di supporto a ciò in maniera molto piú semplice (e sostanziosa, sul medio periodo) dell'attuale caterva di “bonus” (premio nascita, bonus bebè, assegno di maternità, bonus asilo nido, etc) tra cui si devono barcamenare i genitori ad oggi (e che sarebbero ovviamente soppressi con l'introduzione dell'UBI).

Alzata di prezzi, calata di stipendi

Il vero rischio dell'introduzione dell'UBI è nella “risposta imprenditoriale”. («E quando mai!» sento dire dai seggi a sinistra.) Il rischio è duplice: un innalzamento dei prezzi («tanto la gente ha piú soldi»), da un lato, ed un'ulteriore stagnazione degli stipendi («tanto la gente ha l'UBI») dall'altro.

L'innalzamento dei prezzi è abbastanza inevitabile (salvo misure di calmierazione, che sarebbe meglio evitare), nonostante l'obiettivo primario dell'UBI sia la semplificazione dello stato sociale, e quindi in primis di venire incontro alle esigenze dei redditi piú bassi, che già con i prezzi attuali si trovano in difficoltà.

La (magra) consolazione è che l'aumento dei prezzi porterà anche a maggiori introiti per lo Stato (introiti che contribuirebbero poi ad alimentare l'UBI), sia direttamente (per l'IVA), sia indirettamente (dalla tassazione della maggiorazione dei profitti). Non è facile calcolare a quanto questi maggiori introiti ammonterebbero, ma volendo dare una stima a braccio, per ogni euro di incremento lo Stato potrebbe recuperare poco piú di 4G€ assumendo un 20% di ritorno per 60 milioni di persone per 365 giorni l'anno.

Potrebbe anche essere interessante studiare un'eventuale meccanismo che leghi l'importo dell'UBI all'andamento dei prezzi, non dissimile dalla scala mobile degli stipendi, la cui soppressione ha contribuito alla perdita di potere d'acquisto di cui torneremo a parlare a breve.

Ben piú grave è il rischio di stagnazione degli stipendi.

Da decenni ormai (a dir la verità anche mezzo secolo, se non di piú) il lavoro dipendente in Italia soffre di una contrazione del potere d'acquisto, nonostante un marcato aumento della produttività. Che questo sia un importante (se non il piú importante) fattore della stagnazione dell'economia italiana è evidente a chiunque non soffra di quella miopia che purtroppo affligge buona parte dell'imprenditoria italiana.

Ho pochi dubbi sul fatto che il contributo che l'UBI darebbe alla disponibilità finanziaria degli italiani (lavoratori dipendenti e non) potrebbe dare una spinta non indifferente al rilancio dell'economia. Ho molti piú dubbi, però, sulla capacità del fenomeno di aprire gli occhi, o altrimenti risolvere la miopia, della piccola imprenditoria.

Il risultato pertanto, lungi dall'essere «oh ma guarda, se la gente ha i soldi compra di piú, aumentando i miei profitti; manco c'avesse ragione Keynes» rischia di essere piuttosto un «oh bene, posso risparmiare 300€/mese sugli stipendi per aumentare i miei margini di profitto» che finirebbe con l'arenare l'onda espansiva nel giro di qualche anno —e far ricominiare le polemiche sui giovani bamboccioni e choosy, perché non disposti a sgobbare per una miseria a profitto d altri, dando la colpa al'UBI piuttosto che alla miserabile natura dello sfruttamento.

Ci si troverebbe cosí in una triade: da un lato l'UBI che, alleviando lo stato di necessità, darà maggiore libertà di scelta per l'impiego e quindi maggiore peso contrattuale ai lavoratori; al lato opposto l'aumento dei prezzi, che ridurrà l'efficacia dell'UBI nell'alleviare lo stato di necessità, potenzialmente corregibile con il già citato meccanismo tipo scala mobile; il terzo lato della giostra è occupato dalla stagnazione degli stipendi, laddove sarebbe piuttosto opportuna (di nuovo) la reintroduzione della scala mobile.

La triade è sbilanciata a favore degli imprenditori, che in ultima analisi hanno il controllo di due fattori su tre. È possibile bilanciare la triade? Servirebbe un quarto lato, che possa ulteriormente ridurre il vantaggio contrattuale dell'imprenditore. E questo viene dalla maggiore concorrenza. Curiosamente, è ancora l'UBI ad aiutare in questo, anche se potrebbe essere necessaria qualche facilitazione.

Il contributo che può dare l'UBI al bilanciamento della triade nasce dalla già citata funzione di alleviazione dello stato di necessità. Il principale meccanismo di riduzione del potere imprenditoriale è infatti l'aumento della domanda di lavoro, ovvero un incremento del numero di aziende ed un'espansione di quelle esistenti. In questo l'UBI aiuta con una riduzione del rischio annesso all'imprenditoria: i rischi che si può scegliere di correre avendo 300€/mese garantiti (indipendentemente dal successo o fallimento dell'impresa) sono infatti diversi da quelli che si potrebbe scegliere di correre senza una tale “rete di protezione”. Questa possibilità potrebbe essere “consolidata” da un'incentivazione dell'iniziativa individuale: facile a dirsi, un po' piú difficile a realizzarsi senza alimentare tecniche di sfruttamento quali l'abuso della partita IVA come alternativa all'assunzione (dipinta a colori da certo giornalismo). Ma forse anche in questo braccio di ferro già solo un UBI opportunamente calibrato potrebbe aiutare a ridurre lo sfruttamento.


Ci rivediamo alla prossima puntata.

  1. perché proprio 300? Il numero è scelto sostanzialmente a caso, ma come sarà discusso piú avanti, non è nemmeno un'ipotesi troppo azzardata. ↩

  2. il bilancio complessivo dell'INPS. Nello specifico la parte delle pensioni si aggira tra i 300G€ e i 400G€. ↩

  3. sebbene immagino non sia necessario puntualizzarlo, il fatto che per le famiglie piú numerose i costi per persona diminiuiscano non deve sorprendere, giacché la numerosità riduce il contributo relativo delle spese fisse: un appartamento in affitto a 400€/mese è una spesa di 400€/mese/persona per un singolo individuo, ma una spesa di 100€/mese/persona per un nucleo familiare di 4 persone. ↩

  4. La classica forma diretta è quella del voto di scambio: io (o chi per me) offro a te e/o un tuo parente un “posto pubblico”, e tu e tutto il mio parentando votate per me (o per chi dico io). ↩

  5. La forma indiretta è molto piú sottile, ma è emersa abbastanza smaccatamente in questo periodo di crisi associato alla pandemia, quando la quarantena ed il rischio di contagio hanno forzato l'adozione di tecniche di lavoro a distanza (telelavoro e “lavoro agile”). A mesi di distanza, nonostante queste forme digitalizzate di lavoro abbiano dato risultati positivi, e nonostante il rischio della pandemia si sia tutt'altro che esaudito, torna la pressione per “il rientro”: ricomincia una campagna mediatica contro telelavoro e lavoro agile in cui questo è descritto come “vacanze pagate”.

    Le pressioni per il ritorno al lavoro d'ufficio in ufficio, di cui si sono fatti promotori sindaci da Sala a De Magistris (da Milano a Napoli), al di là del fumo propagandistico sui “fannulloni” (se sono fannulloni, perché non vengono licenziati?) e sul rilancio dell'economia hanno dietro la difesa di interessi economici specifici che vivono sullo sfruttamento di una situazione lavorativa non necessaria: dagli esosissimi bar del centro agli affitti fuori misura pompati dai palazzinari (per tacer dei “finanziamenti perduti” per le multe non fatte), questo intero impianto economico è di fatto sovvenzionato dall'impiego pubblico —nella misura in cui venga forzata la presenza in ufficio.

    Anche le pressioni per le gabbie salariali per i dipendenti pubblici di cui Sala continua a farsi promotore rientrano in questa categoria: è un modo per evitare di ripensare la città in modo da abbattere questa esplosione del costo della vita, ed allo stesso tempo di nascondere la continua perdita di potere d'acquisto che da decenni affligge l'intera nazione. ↩

Sucker trump

In questi giorni ha suscitato un certo scalpore negli Stati Uniti la (presunta?) classificazione dei veterani e dei militari morti in guerra come “losers” e “suckers” (“perdenti” e “coglioni”) da parte dell'attuale presidente USA, Donald John Trump.

Sdegno nei confronti dell'opinione di Trump, con grande adunata (virtuale e simbolica) a supporto delle vittime degli insulti, non sono mancate: prevedibilmente in gran parte dagli oppositori del POTUS, ma il fatto che a due giorni dalla notizia siano arrivate le smentite è indicativo di quanto la notizia possa essere “politicamente pericolosa” per lo stesso, soprattutto in prossimità delle prossime elezioni.

D'altra parte non è certo una novità l'ambiguità della posizione del partito Repubblicano statunitense nei confronti delle forze militari nazionali: da un lato grande entusiasmo per questo strumento essenziale per le politiche (apertamente o implicitamente) espansionistiche/imperialistiche degli Stati Uniti, dall'altro scarsa attenzione per gli esseri umani che incarnano questo strumento.

È vero che l'ambiguità non manca neanche dall'altro lato (almeno per quanto riguarda la base, se non necessariamente gli esponenti politici), ma se non altro è un'ambiguità meno iporcita: da un lato opposizione all'espansionismo militare e contrasto al famoso military-industrial complex contro cui mise in guardia Eisenhower, dal'altro maggiore attenzione (almeno a parole) alle loro esigenze.

Non è comunque mio interesse qui discutere delle rispettive posizioni (ideologiche) sul ruolo e l'importanza del personale militare, né della discrepanza tra cittadini e politica, o dell'opportunismo dei critici. Voglio invece spingere una riflessione, forse (un po') impopolare, sul (presunto?) giudizio manifestato da Trump:

Non ha tutti i torti

Vi sono almeno due valide motivazioni a supporto del suddetto giudizio: una soggettiva (nella prospettiva del soggetto che l'ha presumibilmente emesso), ed una oggettiva (o quanto meno analizzabile al di fuori della prospettiva trumpiana).

Cominciamo con la prospettiva soggettiva, ed in particolare dal rapporto tra Trump ed il servizio militare, o per la precisione della mancanza dello stesso —cosa nella quale, c'è da dire, Trump non è molto diverso da altri esponenti del suo (attuale) partito . Non dovrebbe sorprendere che nella prospettiva di qualcuno che, nel periodo della guerra del Vietnam, è riuscito ad evitare (vuoi per caso, vuoi grazie agli agganci giusti) il servizio militare (attivo), coloro che hanno invece attraversato lo stesso periodo “sul campo”, riportando a casa (quando fortunati abbastanza da riuscire a tornare a casa) menomazioni fisiche e mentali, siano dei “perdenti”, dei “coglioni”.

Anche a volerle considerare vittime (delle loro circostanze, del sistema socioeconomico e politico degli Stati Uniti, della perversione geopolitica della cosiddetta guerra fredda, o checchessia), infatti, è indubbio che nella vita non li si possa considerare vincenti (cosa hanno “vinto”, con la loro partecipazione alla guerra?). o scaltri o smaliziati. Persino gli eventuali atti di eroismo (nei confronti dei proprî commilitoni o nei confronti della popolazione invasa che sia) non potrebbero spostare un giudizio del genere, rimanendovi sostanzialmente ortogonali (si può, dopo tutto, essere contemporaneamente eroi e fessi).

Ma possiamo andare oltre: sorvoliamo la questione della guerra del Vietnam e della ridotta o mancante esperienza militare del soggetto. Possiamo dire, oggettivamente, che la scelta di entrare nelle forze armate (quando questa sia una scelta, e quindi non certo nel caso del servizio di leva) si possa considerare una scelta vincente, una scelta furba?

Con la possibile eccezione di chi riesca a fare carriera, raggiungendo (quanto per merito, quanto per “nascita”?) i vertici piú alti, di cui possa poi godere i beneficî senza correre particolar rischi, cosa c'è mai da “vincente” nella scelta? È difficile pensare a motivazioni che non portino a giudizi negativi.

Lo fai per disperazione, perché non riesci a trovare niente di meglio, ne hai bisogno per pagarti gli studi? Sei un disperato, uno sfigato, un perdente.

Lo fai perché credi alla retorica del servizo reso alla nazione, o dell'aiuto alle nazioni dove ti porta l'intervento, all'esportazione della civilità e del nostro benessere? Sei un illuso, un fesso che non riesce (o non vuole) vedere alla realtà dietro gli interventi militari odierni: sei qualcuno che dietro la pretesa ideologica viene mandato a morire (a spese pubbliche) per favorire gli interessi di qualche grossa compagnia privata.

Lo fai perché ti piace l'idea di andare a picchiare ed ammazzare gente? Sei uno stronzo, un farabutto. (che va be', tecnicamente non rientra nella categoria di “losers” e “suckers”, ma non è certo un complimento.

In definitiva, nel diagramma proposto da Cipolla nel suo famoso saggio sulla stupidità umana, le uniche posizioni occupati dai membri delle forze dell'ordine sono quelle degli sprovveduti (sfruttati a beneficio di altri, ma a scapito del proprio), degli stupidi (sfruttati a danno di altri —a cui portano la guerra— sempre senza beneficio proprio), e dai banditi (che dal far danno agli altri traggono giovamento e soddisfazione).

Dov'è l'errore?

Quindi diciamocelo. Il problema con l'opinione di Trump sui militari non è che sia sbagliata. Il problema è che è un pensiero indelicato, e nella sua indelicatezza può —comprensibilmente— offendere.

E soprattutto il problema è che è un'indelicatezza rivolta alle persone sbagliate. Perché il problema non è che la carne da macello sia costitutita sostanzialmente da sfigati e perdenti che non posso sperare di fare di meglio, e da fessi e sprovveduti imbottiti di (e imboniti da) buone intenzioni. Il problema è che il militare sia la migliore occasione a cui sfigati e perdenti possono aspirare, perché intorno non c'è niente di meglio, e/o perché altrimenti non hanno nessuna speranza di pagarsi un'università (cosa comune negli USA) che apra loro prospettive migliori. E il problema è l'uso e l'abuso di forza militare per tutto ciò che non è pura e semplice difesa da forze armate nemiche durante un'invasione.

Se vogliamo mandare al macello gente per difendere interessi privati, almeno mandiamoci solo gli stronzi.

In the mists of NAP

Introduction: the NAP

One of the founding ethical principles of many libertarian philosophies is the NAP: Non-Aggression Principle. This principle is so essential that you'll hear phrases such as «All you need is NAP» (nah-nah-nanananah) almost routinely, even (or especially) in lightweight contexts.

As a philosophical principle, the NAP solves the arguably biggest paradox of that pacifism often espoused by (certain) anarchists: the self-defense paradox. Indeed, interpreted in its strictest sense, pacifism does not allow for self-defence where violence would be required: safe for the few cases where a “soft” approach can be effective (think: deflection), therefore, it puts the holder of pacifist ideas into a position where they may not be able to defend themselves without resorting to that same violence that their pacifist ideas reject.

The NAP solves this problem by clarifying that ethical behavior is to not initiate violence (i.e. don't be the aggressor), but doesn't condemn the use of violence in self-defence (in fact, one could even argue in some extreme sense that the whole point of the NAP is to justify the use of violence in self-defence; but let's not get carried away.)

On a superficial level, the NAP makes perfect sense, and has the appeal of the simplicity and effectiveness that would justify its adoption as founding philosophical principle. In some sense, it's the negative rights version of The Golden Rule: instead of «Do unto others as you would have them do unto you» it's a «Don't do unto others as you would have them not do unto you». And it's a principle that —if followed by all— would (assumingly) lead to a peaceful society, and without the «turn the other cheek» weakness of hardcore pacifism.

In its simplicity, however, the NAP is plagued by an insurmountable issue: the unclear, and subjective, definition of aggression. As we shall see, this poses some significant limitations on the sufficiency of NAP as a founding principle1.

Am I under attack?

We'll start soft before moving to the core issue. As mentioned, the NAP allows for violence in self-defense:

«Somebody tries to kill you, you try to kill'em right back!»

Captain Malcom Reynolds. In Firely, episode 6: Our Mrs. Reynolds

The most obvious, if superficial problem of the NAP is reminiscing of the limitations of the Mutual assured destruction nuclear weapons military doctrine, i.e. the issue of deterrence, escalation and retaliation.

To put it simply, when is it right to exert violence?

On one side of the timing, if your reaction time is too slow, you wouldn't be able to defend yourself, so you want to exert your reactive violence as soon as possible —but not sooner, otherwise it wouldn't even be a reaction, but you'd be the one initiating the violence instead. The NAP doesn't help you in any way in the assessment of the acceptable threat level for escalation.

This introduces a significant degree of subjectiveness in adhering to NAP, leading to situations when “who started it” may be unclear: if I believe I am not posing a threat, but somebody else believes I am, they may feel in their right to resort to violence (i.e. escalate) in defence, and I may see their escalation as initiation of attack and thus feel in my right to actually resort to violence. Even with both of us behaving “ethically” with respect to NAP, violence would ensue.

On the other side of the timing, the issue is for how long after the aggression has begun we can still react and call it a defensive reaction to that aggression, rather than an entirely new episode of violence. Is revenge, «a dish best served cold», justified by the NAP?

More in general, is perpetuating violence justified by the NAP? Let's simplify by saying that throwing the first punch is a violation of the NAP, and counterattacking to defend yourself in a fist fight is not. What if the aggression was a single punch —such that violence would have ended there if there had been no response— and the only reason why the situation degenerated into a fist fight in the first place was the retaliatory punch thrown by the victim of the first punch?

Again, in the absence of clarification, subjective (and situational) judgement is necessary to assess the morality of the action and reaction, and the potential for neverending feuds. Ultimately, even with the best intentions, the NAP does not solve the problem of violence.

And finally, there's the related issue of proportionality: does the NAP justify any kind of violent defensive or retaliatory action in response to any kind of aggression, or is violence in self-defence only morally acceptable if commensurate to the (actual or perceived?) (threat of) aggressive violence? In the former case, it would justify the killing of entire families for the most trivial of offenses, in the latter it again requires additional (potentially subjective) criteria for the ‘measure‘ of the threats and violence.

The deeper issue: what constitutes aggression?

All of the questions raised in the previous section are actually aspects of a much larger issue that affects the NAP, and that's the definition of aggression.

Asking «what constitutes aggression?» may seem like an idle question, since it's easy to come up with positive (and even negative) examples that are likely to be universally (for some sufficiently restrictive meaning of the word) accepted as example of aggression (or not); it's however much harder (if possible at all) to come up with a universally (as above) discriminating answer, i.e. with a definition that would allow “anyone” to determine, given sufficient knowledge of any particular event, whether that specific case was a case of aggression or not.

There are two possible, relatively easy (and frequent, in my experience) answers that I am going to debate now —mostly because rather than actually providing an answer, they simply shift the subjectiveness of the definition to something else.

Aggression is the initiation of violence (?)

It's easy to see why this answer is just a cop-out, since then one would just ask: what is violence?

Again, this is far from being an idle question.

Most if not all the libertarians I've had the opportunity to discuss this with, for example, have an extremely restrictive concept (or at least range of example) of violence, limited essentially to the (ab)use of physical force or, slightly more generally, to the (threat of) physical harm.

Yet there are other forms of violence and threats that do not entail any form of physical force. Psychological abuse, for example, is another well-accepted, and sadly all-to-frequent, form of violence. But does it stop there?

The common (and arguably the defining trait) of (threat of) violence is the abuse of power in an unbalanced relationship: any time a party has power over another party, and (threatens to) abuse(s) such power to inflict (not necessarily physical) harm on the other other party, we can talk about violence.

One cannot exert physical violence on another unless they are stronger (either on their own, or by auxiliary means, e.g. weapons) and can act without particular risk of (effective) retaliation. Similarly, in a relationship, it's the emotionally/psychologically stronger party that can exert emotional or psychological abuse on the other.

Note that who's responsible for the power disparity is irrelevant. For example, I have power over someone who is enamoured with me regardless of whether I actively tried to seduce them, or even if it just happened because of reasons outside of my control. What matters is what I do with the power I have over them, and in particular whether I abuse such power to (intentionally, but we'll get to this point later on) harm them. In fact, it doesn't even matter how much they consciously realize they are being harmed (a frequent trait in abusive relationships is how hard it is for the abused partner to even recognize the abuse patterns); this is for example the rationale behind legislation against the exploitation of the unable or incapacitated.

Violence as abuse of power to inflict harm covers not only the “commonly” accepted forms of violence and power abuse (such as physical and psychological violence), but also forms that are either not formally acknowledged as such, or are so only in limited contexts.

For example, someone living upstream of someone else has power over them, because what they do with the water affects who is living downstream. Polluting the water or diverting its course will harm those living downstream, and may be considered an act of (“environmental”) violence.

Another example is economic abuse, which is only generally acknowledged in the specific context of personal, intimate partnerships, but also exists in the more general sense of harming others economically, taking advantage of one's superior power (e.g. forcing others to accept unfavorable conditions under threat of even worse action, such as driving them out of the market or enacting killer acquisitions).

Whether any of these types of violence is acknowledged as such or not is largely subjective (in fact, one of the leading differences between anarchism and libertarianism is precisely their view on economic violence), which already clouds the “completeness” of the NAP; but even worse, the existence of multiple forms of violence beyond the physical raises further question, such as whether it is acceptable or not to respond to one type of violence with another, and if so in what measure and to what extent (does responding to (threats of) environmental or economical violence, or to emotional abuse, with physical violence violate the NAP or not? if yes, how far can one go with the physically violent response to a non-physical threat?)

Aggression is the (unprovoked) violation of a negative right (?)

A slightly more elaborate cop-out answer to the question “what is aggression?” shifts the lack of clarity to a different concept, that of negative rights.

Note that this is still a cop-out. Even if arguably better defined than the concept of violence (to the point where one may define violence itself in terms of the violation of negative rights), the concept of negative right leaves plenty room for interpretation, since the distinction between a negative and a positive right is much less clear cut than the supporters of the distinction like to claim —if actually possible at all— and so is their violation.

The general distinction between positive and negative rights is framed in terms of action from a second party: a negative right is one that requires someone else to act for it to be violated, while a positive right is one that requires someone else to act for it to be enforced. A dual perspective presents the argument in terms of negative and positive moral duties for the other party: the dual of somebody's negative rights are moral duties for everybody else to not act against those rights (thus, negative duties), whereas the dual of somebody's positive rights are a moral duty for everybody else to act in support of my right (and thus a positive duty).

The classic example is the distinction between a negative and positive right to life: a negative right to life implies that others may not act in a way that endangers your life (and thus the right is violated when someone tries to kill you, for example), while a positive right to life would require others to assist you when your life is in danger (e.g. by providing you with food and water if they come across you in the desert, or by assisting you against a third party that is attempting at your life). In a similar fashion, a negative right to liberty implies that others may not deprive you of your liberty, and a negative right to ownership or private property is the dual of the “do not steal” moral duty (commandment).

Negative rights are generally considered to be first generation rights, and by their negative nature to be “compatible” with each other, in the sense that one will not violate somebody else's negative rights by exerting their own negative rights.

The inadequacy of the distinction between negative and positive rights can be remarked from a variety of different perspective.

We have mentioned that the dual to one's own negative right is a negative moral duty for others (a duty not act in a way that violates that right): but what does a negative right say about one's own action? It is generally argued that protection of one's own negative rights justifies one's own actions, even if this ends up violating someone else's right. Indeed, this is in many ways the “spirit” of the NAP: I should not violate others' negative right to life, but if I happen to kill someone while protecting myself from their attempt at violating my negative right to life, my actions are morally justified. The limit of this interpretation is that it still needs a grading of the rights that goes beyond the mere negative/positive dichotomy.

The simplest example is the question: can I kill someone for stealing (or trying to) from me? Is the negative right to life (violated by killing the thief) less, more or equally important as the right to property (violated by the theft, and in defence of which the killing happens)?

But there's more convoluted examples.

Consider a scenario in which someone is hoarding natural resources beyond what it's needed for their sustenance, and in doing so is depriving others of the essentials needed for survival. Such actions directly threaten the negative right to life of the others (not unlike the environmental or economic violence mentioned before).

Are the others then morally justified in “stealing back” the resources needed for their survival, violating the hoarder's negative right to private property to protect their negative right to life? Are they morally justified in killing the hoarder to protect their negative right to life?

What are the answers to those same questions if the scenario doesn't involve a hoarder, but a natural scarcity, where there simple aren't enough resources for everybody's survival? Are people morally justified in killing each other to protect their negative right to life against others' negative right to life?

But not only is the distinction between negative and positive rights insufficient to clarify the NAP, the distinction itself, as we mentioned, is not well defined. In some sense, there is a semiotic issue: it is possible to rephrase or reframe rights in such a way that they are considered either a positive or a negative right, without changing the practical implications in the respect of the right itself. This implies that “negativity” or “positivity” isn't an intrinsic property of the right, but depends on the frame of reference (and is thus at least partially subjective).

A concise example can be found in the negative right to private property, reframed as a positive right to have your property claim recognized (which it might not be, for example because you are considered a thief, or ownership was transferred to you under unacceptable circumstances, e.g. coercion). More aggressively, your negative rights to life and liberty can be reframed as the positive right to not be considered a threat to the life and liberty of others (since otherwise they would be in their right to suppress your life, as per the NAP).

The ambiguity is even more evident when looking at the dual viewpoint of negative versus positive moral duties. Consider for example the following scenario: I'm walking or standing outside of somebody's private property, marked by a wall, but due to lack of proper upkeep, the wall falls down on me, hurting or killing me. My negative right to life/good health has then been violated not by a direct action, but by inaction: in the specific case, failure from the wall owner to maintain the wall in good condition so that it wouldn't endanger passers-by. Similar examples would be for example the failure to secure one's domestic animal (dog's leash/muzzle) or failure to wear a mask in public while potentially infectious.

More in general, the moral duty of not endangering others (to not violate their negative rights to life and good health) covers both negative aspects (duty to not take actions that would endanger others) and positive aspects (duty to secure others from the danger posed by things one is responsible for).

A counterargument to this remark is that the positive duty is consequence of a previous actions (building or taking ownership/control/responsibility2 for something that can endanger the lives of other if left unchecked), but this simply confirms that the positive/negative view depends on the framing, and presents other aspects of the conflict, such as the right to private property entailing positive personal duties (e.g. to not let one's property endanger others). Is it then morally justifiable to act in violation of someone's negative right to private property, if they shy away from the consequent duties?

(The right to private property, in this sense, is one of the most fascinatingly debatable rights, but this is something that deserve its own discussion.)

Intentionality, awareness, ignorance, inaction.

The last point of subjectiveness in the NAP, whatever definition of aggression is chosen, is the matter of intentionality, here used in the “common language” meaning of acting with deliberate purpose.

We can consider four degrees in the undertaking of a harmful action:

  • intentionally harmful actions are actions undertaken with the express purpose of inflicting harm to another party;
  • a lesser degree is the awareness of the harmful nature of the action, even though harm is not the purpose of the action itself, with the action being undertaken because we value the benefit it gives us as more important than the harm it inflicts others as a side-effect;
  • even lower, we have ignorance of the harmful nature of the action, which leads us to undertake it because we are unaware of its harmful nature;
  • and finally, of course, inaction, as not undertaking the action in the first place.

The NAP clearly covers the highest degree, but arguably it covers the next one as well: even if harm is not the purpose, undertaking the action knowing that it will harm others shows a conscious (thus, intentional) disregard for their safety that can be considered an unprovoked act of violence or a violation of their negative rights to safety.

Or is it? The semantic choice of the word “aggression” carries with itself an implication of intentionality, as debated for example by Kinsella and Tinsley, even though this is not meant to imply that other degrees are exempt from punishment or reprisal, although it would influence the degree to which they would be.

From the perspective of the harmed (i.e. the one that by the NAP would be in their right to exert their right to act violently against the aggression), however, it really makes no difference if there was an intent to do harm, or “just” an intentional disregard for the safety of the others: even if might not considered an aggression in the strict sense, retaliation would be considered morally justified.

The distinction between the second and the third degree (ignorance) is again one that highlights the insufficiency of the NAP. There is wisdom in not escalating violence, which in this case might mean trying to communicate with whoever (presumably unaware of the fact) is acting threateningly or in a harmful manner , making them aware of the threat or harm they pose to you, and hopefully settling the situation without further violence.

Differentiating between the second and third degree however requires a subjective interpretation of the motives or knowledge behind the harmful actions (not unlike the distinction between the first and the second degree, but with a different outcome to the assessment). While it would be wise (with the aim to avoid escalation) to always assume the third degree, there are circumstances where this either requires a massive suspension of disbelief, or a considerable trust in the others, that due to other circumstances we may be unwilling or unable to concede. Even more so, there may be no way or time to contact the actor and inform them about the threat they pose or harm they are causing —especially considering the possibility that, despite our optimism, it might really be a case of disregard for others' safety (at best).

All of this thus requires subjective judgement, and further highlights the inadequacy of the NAP, since the “wise” approach to “assume no malice” is external to the NAP, and its own principle, better known as Hanlon's razor:

Never attribute to malice that which is adequately explained by stupidity.

or at least a variant thereof where ignorance is assumed instead of stupidity, since the latter may preclude any possibility of “enlightenment” and thus the undertaking of corrective actions —and of course, that's assuming we aren't in the previously mentioned situation, where the two parties might have different opinions or perceptions on whether a specific behavior is or is not harmful to others: do we still get to act according to the NAP if even after the confrontation the other party refuses to acknowledge the harm or potential harm (threat) posed by their actions?

And finally, in the fourth degree, we have the lack of action, which should be undoubtedly exempt from the NAP —unless of course, it's the kind of inaction that causes harm to others, when such a view is accepted.

The third party involvement issue

The last obstacle to the universality of the NAP is in reference to the subjective application of it to third party involvement, which can be summarized in the following question: can a third party intervene in a violent conflict while respecting the NAP? In other words, if a party A attacks a second party B, would a third party C intervening in B's defense against A be acceptable within the NAP, or would it be a violation of the NAP for C against A?

The answer to this question is both contextual and subjective.

Contextually, it is generally accepted that the NAP is not being violated if the intervening third party C has a relationship with the offended party B that would “command” their intervention: the typical example is a contract binding C to protect B.

The subjectiveness of the answer is tied both to the subjectiveness of the applicability of the NAP itself, previously discussed, as well as to other ethical considerations.

Consider for example the case where the protection contract that would (contextually) justify the third party intervention has as a trigger the unprovoked violence against the protected party (and is thus essentially just an extension of the NAP to the third party): all of the considerations made about the subjectiveness of the concept of violence that have been discussed so far will come into play. Does the contract trigger based on the protected party's idea of violence (thus being an extension of the NAP “from the perspective of the protected”), or based on the protector's idea of violence (thus being an extension of the NAP “from the perspective of the protector”), or their union, or their intersection?

Of course, this specific example isn't as much an issue for the NAP itself, but just one of the aspects of the contract that need a clear and detailed specification due to the subjectiveness (and thus inadequacy) of the NAP; it also poses an ethical conundrum for the protector, that might find themselves in a situation where they'd need to violate the NAP to satisfy the terms of the contract —but of course, that's up to the prospective protector to decide.

The situation becomes more subjective when one starts to consider that there are circumstances under which one may be compelled to intervene not because of a “legally binding” contract, but due to a specific relationship with one of the parties involved in the conflict that carries a moral (if not legal) obligation to intervene in their defence. This could be for example a blood relationship (parent/offspring/sibling), a close friendship, or being member of one's inner circle or other tightly-knit community. But why stop there? If one's ethos can be summed up as

Homo sum, humani nihil a me alienum puto
I'm human, I think nothing human is alien to me
Cremes, in Plautus' Heautontimorumenos

it would be ethical to intervene in any conflict, even if just to defuse or de-escalate it, but especially in defense of any obviously victimized party, all without —subjectively— violating the NAP.

A core NAP?

A way to escape the extent to which the NAP becomes applicable due to the subjective interpretation of the concepts it relies on is to limit the NAP to its “core”, its “stricter” interpretation: do not initiate physical violence, but accept its usage as a defence to a physical attempt at your (and nobody else's) life, liberty or private property.

This may be considered an “objective” core of the NAP, agreement on which could be reached by all; a “necessary” part, so to say. This being the case, though, is it still actually sufficient? If so, what are the implications of such a stance with respect to the morality of e.g. psychological and emotional manipulation, such as gaslighting or child grooming, which by such a “core NAP” would not be covered?


Assuming you've managed to get this far, it should be clear that none of my remarks invalidate the NAP per se. They do however highlight its insufficiency as an ethical founding principle, and the need for further clarifications, due to the highly subjective underpinnings of its application.

Beware then of anybody claiming that all you need is NAP, they obviously haven't thought this through.

  1. which is to say, even assuming that the NAP is an acceptable founding principle —which is actually debated even in libertarian circles— it is not true that it's sufficient, i.e. it's not true that «all you need is NAP». ↩

  2. and that's before even getting to the moral dilemma about responsibility and inaction, enshrined in the dubiously attributed maxim «for evil men to accomplish their purpose it is only necessary that good men should do nothing» and that culminates in the trolley problem, that will be discussed too. ↩

Things we could have learned from the COVID-19 pandemic


As we approach what seems to be in most nations the end of the first and hopefully last wave of the COVID-19 pandemic, it is time to think about the lessons we may (or could) have learned from it. Rather than a Dialogue Concerning the Two Chief World Systems for facing the pandemic (lockdown versus “liberty and death”), I'd rather prefer to find myself sharing some thoughts about some more subtle topics.


Washing hands

One of the biggest discoveries for me, right from the beginning of the pandemic, was how few people know how to wash their hands properly. When practical videos about the correct way to wash one's hand started popping out, I was thoroughly fascinated not so much by the demonstration of the correct way, but rather from the introductions illustrating the frequently used, wrong way to do it.

Now, I'm not a “healthism” fanatic, but I do like to keep my hands clean, and I have always known I had a tendency to wash them with greater frequency and care than the average population, but discovering that people not only don't wash their hands as often as I do, but frequently don't wash them properly even when they do, was quite the surprise —and I'm not even talking about the thorough, 20-second-minimum, all-around-and-in-between that has been (cautionarily) taught since the beginning of the pandemic, I'm talking about even more basic (and less paranoid) gestures other than “rubbing your palms together”.

The big question remains: have (a meaningful number of) people actually learned to wash their hands properly? have they taken the habit? will they pass it on to the new generation? or has the lesson already been forgotten in the months that have elapsed since the initial panic?

La revancha del bidé

I have the luck of living in a nation where it is customary to have a bidet in most if not every bathroom. Now, whether or not it is used, and used correctly, is obviously a different matter, but at least it's there.

This is not the case everywhere, and it was interesting to see the lack of a bidet manifesting in nations such as the United States of America with panic buying of toilet paper (and the resulting self-fulfilling prophecy of its shortage).

Now, one may or may not do without toilet paper when in possession of a functioning bidet (as I myself discovered pretty recently, there are two camps in bidet usage: with and without preliminary use of toilet paper; I always thought that the standard was to use the paper first, and then wash up in the bidet, but apparently, this is not the case for everyone), but one could hope that nations that weren't used to the bidet before may have found enlightenment, with this piece of bathroom furniture finding its due place in more homes. And hopefully get used as it should.

Hands and feet and breathing customs

There are several customs that have been affected by the pandemic, at least during its peak (in the nations that have successfully taken action against it). A common example is handshakes, for which alternatives such as the elbow bump or the so-called “Wuhan shake” foot tap have taken the spotlight1. It'll be interesting to see how long these alternatives will last, but there's actually more customs that would need rethinking “in a pandemic world” —even though they have received little to no media attention.

Blowing the candles on a birthday cake is a good example: in a time where everybody should be using masks to protect oneself and the others from the spread of this viral infection, exhaling strong enough to suffocate the flame of a candle is not exactly the most health-centric action one could take. Alternatives have been attempted, but I'm not seeing them really catching on, especially with the younger kids (luckily, I would say, as they would not infrequently result in disaster, I fear).

Some have remarked that the greatest divide in the results concerning the containment of the pandemic has not been political initiative, technological progress or wealth of a nation as much as geography, with a remarkable density of success stories among the Asian nations compared to any other continent.

I'm left wondering how much of this is a byproduct of certain cultural aspects common among many Asian countries, and particularly social customs such as bowing instead of shaking hands, removing one's shoes when entering a house (consistently more widespread in than outside of Asia), or the considerably more frequent usage of face masks when out in public (even without a raging pandemic, whereas in certain nations plenty of people can't seem to grasp the importance of such a simple habit even during).

The masks of freedom

A surprisingly contentious theme during the pandemic has been the use of masks. Leaving aside the discouraging paranoia against them shown above, one of the points that seems to have been surprisingly poorly communicated is that the main objective of masks is not as much to protect oneself, but also, and maybe most importantly, to protect others2. Alternatively, the message has passed, but nobody actually cares about the health of others, not even if the solution is simple and for the most part not particularly burdensome (unless you also wear glasses) for day-to-day activities.

In my whereabouts, for example, a recent trip to the mall has been fascinatingly exemplary in this regard: on the upside, there were only very few people without masks; on the downside, there were also very few people using the masks correctly, nose out being a very common mistake, and “chin support” (hard to think of a more inconsequential way to use the mask) being a not too far second.

Now, there would be much to say about the (un)ethical disregard for the health of others by those who insist on refusing to wear a mask3, or more in general about the overall effectiveness of relying on self-control to ensure that everybody's good health is preserved, but in this context I'd rather point to another ironic aspect about mask wearing.

The irony is that while conservatives and self-professed libertarians in nations such as the USA refuse to wear masks as a protest against such a liberticide imposition, more privacy-conscious individuals appreciate the thwarting effect these masks have on facial recognition. Unsurprisingly, this is something the people of Hong Kong have been leveraging since before the pandemic in their (so far unsuccessful) protests against the China power grab; and just as unsurprisingly, tech firms in China have been hard at work in making facial recognition work even in presence of masks. Oh, and if you think this is just an issue with “those repressive communist regimes”, don't delude yourself: even in nations like the UK the powers that be are more than happy with the development of similar tech. There's a reason why the EFF is fighting for restrictions on the use (and abuse) of face recognition tech


The slowdowns caused by the containment measures against the spread of the pandemic (and particularly the lockdowns) have had clear beneficial effects on the environment. Cleaner air and water have been observed all around the world, with prospective health benefits for the population, and even, curiously, improved energy production from solar. While not surprising on a intuitive and qualitative level, the effect is worth of being studied, because the relationship is not as simple as may be initially thought, related as it is to the distribution of the many factors that contribute to pollution: pollution related to personal transportation, for example, has decreased significantly, whereas that related to manufacturing has only decreased in proportion to the impact on work.

Most important, and just as unsurprising, the benefits have mostly been temporary, yet people's discovery what clean air feels and looks like may increase pressure towards longer-term solutions for a cleaner environment. Which leads to an interesting question: how much do people not care about the environment because they have simply forgotten, or even worse never experienced, what a clean environment actually feels like?

I was actually pondering this a few days ago while sitting on a beach, with a not-really-clean sea in front of me: this is what most people know about the sea, whereas I have memories of the clean seas from elsewhere, from my childhood. How much do the difference in experience affect one's sensitivity to these themes?

Then again I'm reminded by the little care a lot of people show about their surroundings (be it other people or living spaces), and are left to wonder how much of it is (human) nature, and how much of it is nurture, or lack thereof. And thus maybe, but hopefully not, the only long-lasting change from the pandemic will be single-use PPEs becoming the cigarette butts of pollution of the next decade.


One of the powerful things about the habits that we (might, could have) learned during the pandemic is that they are actually good habits: even if not as strictly or thoroughly as during the pandemic, they are habits that would benefit us all in our daily lives, even under normal circumstances, by helping reduce the diffusion of many kinds of more and less grave sickness that adopt similar spreading mechanisms and suffer from the similar kinds of interventions. Jokes have been made about other viruses suffering from the COVID-19 response. What remains to be seen is how successfully this will be adopted by the current generations and passed on to the next.


Employment and work have been massively affected, frequently negatively, by the pandemic. In fact, economic worries have been almost constantly in sharp contrast with health and safety concerns for the whole population, and even though it's has been clear from the very beginning that the classic workplace is and remains a hotbed for outbreaks { }, there's a massive inertia against redesigning workplaces, improving worker's equipment, and more in general rethink the whole concept of work, to reduce the associated risks of contagion.

Working from home

One of the most impressive changes that have been triggered by the pandemic, especially in places where lockdowns have been mandated by the regional or national authorities, has been the transition from the classic office work to remote work.

What makes this change most impressive is not only the rapidity with which the solution was adopted, but the sharp contrast with the general mentality up to a moment before, where —with the exception of some more forward-looking exceptions— remote work was for the most part treated as a special benefit to be conceded only under extreme circumstances —if considered as a possibility at all.

One can come up any kind of explanations and justifications for the previous attitude, but I think that for the most part it boils down to control, and a lack of maturity (when no total inability) in assessing the capabilities and “performance” of the workers.

(Ironically, the sudden choice (or need) to shift work from in-office to remote also ensured that this was done in the worst possible way, and in the worst possible circumstances. Issues went from the lack of appropriate infrastructure (either in the office itself, or at the workers' homes) to the overlap of the transition with a moment where everybody (and in particular: children) had to stay home as well, with significant impacts on the effective productivity of the remote workers. But, to be fair, the latter has been an issue for everyone, including those for which remote work was already a reality.)

Of course, this isn't the whole story, there are jobs for which remote working does create issues, and I'm not referring only to e.g. manufacturing, where the need to operate machinery requires workplace presence: even restricting to the tertiary/service sector, where office work is predominant and mostly “remoteable”, there are circumstances where the switch to remote work presents issues.

The most famously debated point in this regard has been remote teaching: the emergency switch has uncovered massive deficiencies in infrastructure, amplified what ultimately boils down to census-based access to learning, and highlighted the difference in quality, preparation and adaptability of the teachers. It has also opened the door to massive penetration of technological giants such as Microsoft and Google into the field, with little or no oversight (a topic that deserves its own discussion).

Less discussed problematic situations are the fields where “trust is not enough”, and large-scale technical solutions are adopted to prevent exfiltration of information: extremely restrictive firewalls, limited networking, strict rules against BYOD, etc (think: nuclear research).

Of course, remote work is not a universal opportunity, and as with all limited opportunities, it's the opposite of an equalizer: be it by census, location, education level, type of work (which again strongly correlates with wealth and opportunities), infrastructure, the ones most affected by the crisis and the inability to convert working style from in-place to remote end up being always the more vulnerable categories.

Essential or not

While lockdowns remain the most effective countermeasure to the spread of a pandemic, especially when enacted early on, they have a non-trivial socio-economic impact. Still, most nations have enacted lockdowns during the COVID-19 pandemic, at different times, for different periods, of varying degrees, and with different results.

One of the most contentious points for the lockdown is the choice about which activities can/should/must close and which can/should/must be allowed to continue to operate, and under which conditions. This is a non-trivial balancing act between placing enough restrictions to meaningfully reduce the spread of the contagion4 and still provide people with the means to survive in good health.

In most nations, this has led to the differentiation between essential and non-essential work, with the former category encompassing the activities that cover the production and distribution of what are deemed “survival” goods and services (e.g. food, healthcare) and “everything else” falling in the other category.

There are a few issues with this distinction. The most obvious is that there is a certain degree of subjectiveness in where to draw the line between essential and not: while certain things are quite obviously essential (e.g. food), and others are, at least in the short, run most obviously not (e.g. luxury goods), there are others for which the choice is not as clear cut: for example, how essential is it for survival to be able to get new clothes in the short term?

A practical issue closely related to the fuzziness of essentiality is the operating requirements for the essential services: “directly” essential activities rely on a number of ancillary and satellite activities to remain fully operational, and this creates a cascade of dependencies of activities that need to remain open so that the essential ones can. This may render the lockdown measures much less effective than expected: in Italy for example, despite the formally extremely strict (and long) lockdown, the majority of workers remained active (with large differences between regions and categories), many of which commuters; unsurprisingly, the spread of the contagion was found to correlate directly with how many workers remained active.

Finally, a counter-perspective presented by neoliberalist or more in general “free-market” oriented economists, posits that all work is essential, if not else because, without their work, workers would be unable to afford even the most bare of necessities. Of course, the objection is only relevant if —consistently with the mentioned economic philosophy— we disregard any social welfare option that would balance the loss associated with the closure of non-essential activities.

Aside from the irony of economists, the arguably “most non-essential workers” (humanity has survived for millenia without their work), objecting to the arbitrariness of the distinction between essential and non-essential work (but then again, theirs is a work can for the most part be done “remotely”, and would thus not be affected by lockdown measures), the discussion ultimately becomes one to answer a simple question (with no simple answer): how many, and whose, lives are we willing to sacrifice in our objection to mandatory protection?

In some sense, this is the economic equivalent of the masks issue, and again becomes a matter of (personal, and social) trust in “the government” versus “the people”. And when pondering how much we'd put trust in the latter, let us keep in mind how even the simplest of pro-social-health measures get fought, or the human cost of the delays in enacting lockdowns due to pressure from special interest groups representing a minority of the population, but with large economic (and thus political) influence, or the preference for high-tech solutions that track workers instead of providing adequate PPEs, or the cop-out of “selling at cost” the PPEs to the exploited “employees-but-not-really” of the “gig economy”. But this will be discussed further down.

Satellite effects

The transition to remote work, and more in general the “lockdown experience” has had several consequences, and it's interesting at some of the more “satellite” ones.

Workwise, the shift from office work to remote work has far-fetching economic consequences on that part of the economy that depends on the presence and (usually) concentration of offices in specific parts of town: from the rent of office space to the food and services in “central” locations that thrived on the people circulating during lunch breaks or at work check-in/check-out times, for example, have suffered significantly from the sudden shift to remote work.

Remote work also provides greater possibilities to improve work/life balance, if managed correctly; it can also lead to much worse work/life balance, but not much more so than the always on call mentality that has been growing for years now in many office workplaces anyway. Of course, much of it, in both direction, depends on personal attitude, discipline, motivation and external factors (such as presence of children and their age, or marital status and consort working condition).

(An example of a somewhat unexpected satellite change is the loss of audience for radio broadcasts due to less commuting. An example of a lost opportunity of reflection on work/life balance is the hidden significance of this loss, i.e. the amount of time that was wasted —for the lack of a better word— commuting from house to work and back, time that would in most cases have been better spent in any other way, be it enjoying life or being productive at work.)

The two experiences (the satellite and the personal) are in sharp contrast, and it's unsurprising to see the growing pressure from interested parties to go back to the traditional model, often with debatable communication choices, such as by implying that the remote work (or its so-called “smart working” relative) isn't real work.

In the opposite direction, we see court decisions such as the Swiss top court ruling that requires employer to contribute to employee's rent payment in case of remote working. Such an initiative, and more in general a move in the direction where employers support the personal and technical infrastructure required for employees to work from home would help reduce some of the inequality of opportunity for remote work, while at the same time reducing the “office space” cost savings for the employers.

Rethinking work, rethinking life

Pressure to prevent or reverse the (prospectively longer-term) social changes triggered by the pandemic and their influence on the economy, work and life comes unsurprisingly frequently from those that built their fortune on the exploitation of the previous status quo. An interesting example of this can be found in the Swiss employer's association (Centre patronal) document from April 15, 2020 and titled Vers une stratégie de sortie de crise (PDF warning, and archive.is mirror), i.e. «Towards a crisis exit strategy».

There's a very interesting phrasing in the document:

Il faut éviter que certaines personnes soient tentées de s’habituer à la situation actuelle, voire de se laisser séduire par ses apparences insidieuses: beaucoup moins de circulation sur les routes, un ciel déserté par le trafic aérien, moins de bruit et d’agitation, le retour à une vie simple et à un commerce local, la fin de la société de consommation

One must avoid that people be tempted to get used to the current situation, or to be seduced by its insidious appearances: much less circulation on the roads, a sky deserted of air traffic, less noise and stress, a return to a simple life and local commerce, the end of the consumer society

The warning is obviously not motivated in terms of the benefit lost by those whose large personal wealth is built upon the consumer society and the stressful working conditions that support it, but is phrased in terms of the least fortunate that have been hit the hardest by the economic contraction associated with the pandemic and the emergency measures adopted to contain it.

The reason why this is interesting is not so much that it's false, but the fact that it's an excellent example of how one can state the truth and still be dishonest. Looking at the data, it is indeed quite clear that those that have been affected the most negatively by the economic contraction have been the bottom and the top layers of the wealth distribution, the rich and the poor5 —although, of course, the impact the corresponding loss have had on the life of the groups is very different, and so is their possibility for recovering from the loss.

And therein lies the dishonesty: hastening the return to life as it were before the pandemic wouldn't help the least fortunate in recovering their pandemic-associated losses, because their fortunes do not depend on the previous lifestyle —in contrast to those who have built their fortune on that, and who coincidentally are the ones represented by the Centre patronal and pressuring for the return. The “exit strategy” of reverting tout court to the previous model isn't a universal exit strategy, but one that benefits only a very specific section of the population. Even worse, the document implicitly presents a false dichotomy, as if the return to the previous lifestyle and system was the only alternative to the catastrophic loss for the poor.

In many ways, the current economic situation is the “wealth and opportunity” equivalent of the food crisis, and is explained by the conflation of two very different issues: scarcity and distribution —a distinction that is brilliantly exemplified by surplusses of food being destroyed in the face of hunger. This kind of remarks are not new, and can in fact be traced back by 40 years if not more.

Of course, if for the food we haven't found a practical solution after four decades, it's hard to believe we'd find one for the more general “wealth and opportunity” issue, despite the opportunity to rethink the whole system offered by the braking caused by the pandemic. A change in lifestyle exposes different opportunities, and opens a window for other, deeper changes in the system.

Again, among the most fortunate there are people that are already positioned in a way that allows them to better exploit the opportunities offered by the change in lifestyle: Amazon's Bezos and Facebook's Zuckerberg massively benefited from the lockdown, and I don't hear them complaining about the change, or pressuring for a return to the old ways.

(Of course, the fact that they could easily switch to remote work, or could work around the lockdowns by being classified as essential, ignore the need for safety measures for the workers, and fire them if they happened to rebel helped a lot —and draws a less poetic picture.)

Smaller parties however can also find solid opportunities. The pandemic, for example, is how my family discovered and started using a local online greengrocer: you order on the website, they deliver to your footsteps; yet behind the technology, they are still a local shop, the quality is comparable when not better to what one can find at the supermarket, and for the most part cheaper. Similar realities have existed for years (for example, a colleague of mine has been shopping for years from a fishmonger whose primary communication channel is WhatsApp); it's likely that the pandemic will accelerate adoption and spread of these kind of realities —at least where they are possible.

There are downsides to things moving in this direction.

For the buyer, the counterweight for time saved in “shopping from home” is in reduced information and higher risk: e.g. hand-picking one's own groceries allows better selection and fine-tuning of the amounts («product X is available, but the ripeness isn't exactly what I'm looking for, except maybe for these couple of items»).

For the worker, the shift in operational mode will require a shift in competences: less “front office”, more logistics. The danger here is that while the former can, at least in some fields, the front worker can provided added value (e.g. a good bookseller in a bookshop can suggest, direct, inform the buyer), the latter is a more easily “replaceable” role: it requires less specialization (and has thus a wider pool of competing workers) and most importantly we're moving towards more massive automation in the field (reducing the need for workers at all).

Downsides for the employer/entrepreneur, aside from missing the value-add of competent front workers in sectors where this matters, is the need to rely on distribution networks on both sides of the chain, procurement and sale, and the corresponding issue with scale: if you're small enough, or large enough, you can manage your own (outgoing, and incoming in fact) distribution chains, but if you're not, you have to rely on middlemen, with all the associated negatives.

For the system as a whole, there's higher fragility: any disruption in transportation and distribution will negatively affect both sides of the transaction (again, this has been the case in some nations for the food distribution during the pandemic, as mentioned above).

But most importantly, even this shift doesn't really solve the underlying problem, which is structural and infrastructural. Infrastructural, because it depends essentially on the availability and quality of and access to infrastructure (physical and electronic pathways, education, health). Structural, because the drift towards the more aggressive forms of capitalism we've seen in the last four decades century have amplified all the intrinsic limits of the system, starting from the poverty trap6.

The pandemic, in many ways, has accelerated (or is accelerating) changes that would have happened anyway, over time. The upside is that the drastic timing of the changes has highlighted aspects that are usually less dramatically noticeable in a more gradual degradation —which has helped some people to lend (and ask for) more attention to the situation, and to reflect more carefully about its causes and possible solutions. The downside is that too much information is still in the hands that are most interested in preserving the statu quo, and in the useful idiots that delude themselves in thinking that the amplification of the structural problems in the current system is the solution to its deficiencies —and the lessons that could have been learned are lost in the chase of scapegoats and misrepresentations to feel safe in one's own beliefs.

  1. I mean, we could have just (re)imported the bowing customs from Asia, and so I'm left wondering why it hasn't happened: does it have some kind of historical baggage that would make it inappropriate on this side of the landmass? ↩

  2. to be more specific, the direction which filtering happens depends on the type of mask, but for the commonly suggested, cheap, disposable surgical mask, the main purpose is to reduce the risk of the wearer spreading the virus to others, rather than the other way around. ↩

  3. this could be readily interpreted as a violation of the others' negative right to good health, but this is a discussion for a different time. ↩

  4. the fact that workplaces are important hotspots both for workers and patrons does not exactly come as a surprise. ↩

  5. Ironically, the least affected seems to have been the ever-disappearing middle-class. And of course, among the richest, those who were better positioned to profit from the change in lifestyle were not affected negatively —but actually the opposite. The findings may be surprising, but similar results have also been found for other, past crises, leading to what has been described as the elephant curve. ↩

  6. a recent, at the time of writing, essay on the topic, with solid data in support of the hypothesis, is «Why do People stay Poor?» by Claire Balboni et al.. { when published. } ↩

L'APParenza dell'IMMUNItà al COVID-19


Già alla seconda settimana dall'inizio delle misure di “quarantena” adottate su scala nazionale dal governo Conte II (9 marzo 2020), era cominciata su Internet (ad opera ad esempio di figure come Fabio Sabatini e Roberto Burioni) una campagna sulla necessità di adottare un sistema di tracciamento automatico dei possibili contagi “come in Corea del Sud”.

Questa possibilità di tracciamento “di massa” sarebbe necessaria —a detta dei suddetti— per poter entrare in sicurezza nella famosa “fase 2” della gestione dell'epidemia: il rilassamento della quarantena e la ripresa della libera circolazione dei cittadini.

È con questo spirito (almeno di facciata) che l'iniziativa è stata adottata dal governo, che —con la fretta, la confusione e la mancanza di chiarezza e trasparenza che hanno caratterizzato un po' tutti gli interventi in tema “gestione dell'epidemia”— ha affidato la creazione dell'app in questione (denominata «Immuni») (archivio) alla compagnia software Bending Spoons.

Invero, le scelte fatte, le tempistiche, e la direzione verso cui sta evolvendo l'azione di governo (come ad esempio le proposte in discussione su quanto rendere volontaria l'installazione dell'app, o la sua sostituzione con braccialetti elettronici che ricordano neanche troppo da lontano quelli adottati per gli arresti domiciliari) fanno sollevare parecchi dubbi, per nulla sfumati dai continui riferimenti (riscontrabili ad esempio sulla già citata pagina dell'Agenda Digitale) a simili iniziative europee ed extra-europee.

Il sospetto maggiore che emerge, e sul quale torneremo in coda a questo testo, è che lo scopo principale di questa app non sia quello —dichiarato— di mantenere sotto controllo l'epidemia pur allentando le draconiane regole di quarantena a cui la popolazione ormai si manifesta abbondantemente insofferente e garantendo comunque la salute dei cittadini.

Nella migliore delle ipotesi, come vedremo, vista la fretta e le strategie di comunicazione adottate, sembra piuttosto che l'obiettivo principale di questa app sia invece la deresponsabilizzazione dell'azione di governo: condizionare la libera circolazione all'adozione dell'app senza risolvere i dubbi sulla sua natura diventa un modo per scaricare la responsabilità della (probabile, se non inevitabile) recrudescenza dell'epidemia nella “fase 2” a fantomatici “furbetti dell'app”.

Nella peggiore delle ipotesi, d'altronde, il tutto potrebbe essere semplicemente una “prova generale” per forme ben piú invasive di monitoraggio e controllo della popolazione —intenzionale o meno che tale sia al momento.

Ma cerchiamo di capire meglio perché, pur non essendo necessariamente opposti a priori a qualche forma di tracciamento, vi è ben ragione di dubitare della forma e dei tempi scelti al momento dal governo —e senza nemmeno cadere nel bias di una (non necessariamente immeritata) mancanza di fiducia nei confronti dello stesso.

Punto primo: priorità

Fin dai primi tempi di campagna mediatica nei per il tracciamento digitale, l'aspetto piú sospetto è stato il peso dato a tal servizio vis-à-vis con altri, ben piú importanti metodi di tracciamento e sorveglianza (attiva) della diffusione dell'epidemia, nonché del suo contenimento.

Priorità assoluta, per il corretto tracciamento dell'epidemia, è capire chi è infetto e chi no: questo richiede “tamponi a tappeto” (con buona pace di Crisanti, a cui l'espressione non piace) —il che non significa fare tamponi a tutti in maniera scriteriata, ma significa comunque fare molti piú tamponi di quanti ne sono stati fatti, soprattutto in quelle regioni come la Lombardia dove è ormai evidente pure a chi ha vissuto finora con la testa nascosta sotto la sabbia che la selettività nell'applicazione dei tamponi ha portato ad una disastrosa (se non criminale) sottostima dei contagi.

Ovviamente, questo richiede maggiore disponibilità di tamponi e minore speculazione (esempi si trovano in tutta Italia, dalla Lombardia alle Marche). Se un'azione di governo è opportuna, dovrebbe essere in primis in tal senso.

Ma non basta: avendo a disposizione un meccanismo funzionante (e possibilmente rapido) per determinare gli infetti, prima di considerare il tracciamento occorre provvedere a minimizzare le possibilità di contagio: anche in presenza di adeguato monitoraggio e tracciamento automatico, rimane aperta una finestra temporale per il contagio che va minimizzata —e la sua minimizzazione comporta un'adeguata disponibilità di dispositivi di protezione individuali (DPI): guanti, mascherine, visiere —la cui mancata distribuzione ai lavoratori (soprattutto, ma non solo, quelli ospedalieri e nelle residenze sanitarie assistenziali (RSA)) è stata grave concausa della drammatica situazione epidemiologica della Lombardia.

(E parliamo di DPI, non di costose strategie per evitarne l'uso ed abituare i dipendenti ad una superflua —dal punto di vista epidemiologico— sorveglianza continua: anche perché sappiamo benissimo cosa succede quando gli allarmi disturbano il lavoro, e non è “risolviamo il problema per cui c'è l'allarme”. Quindi parliamo di DPI —saranno anche piú economici come soluzione.)

Anche qui, se un'azione di governo è opportuna, dovrebbe essere in secundis (dopo la sorveglianza attiva) nel garantire adeguata protezione: incentivare quindi l'adozione (e la disponibilità) di DPI, a livello privato individuale nonché a livello aziendale, e punire l'inadeguatezza della stessa (ad esempio, per le aziende che venissero trovate inadempienti sulla protezione dei lavoratori durante un'ispezione —ispezioni che, altresí, non dovrebbero mancare).

Solo dopo aver dato la dovuta priorità a sorveglianza e protezione può aver senso andare a valutare l'opportunità (ben diversa dalla necessità) di forme —adeguatamente ristrette, anonime, garantite e volontarie— di tracciamento dei contatti —la famigerata “app”.

E non a caso parliamo di opportunità, e non di necessità, perché benché se ne discuta favorevolmente a livello europeo, l'efficacia (se non addirittura l'utilità) del contact tracing “digitale” nelle forme attualmente discusse rimane dubbia.

Punto secondo: il protocollo è piú importante della singola app

Condivido gran parte di quanto scritto nella Lettera aperta ai decisori del Nexa (Politecnico di Torino). Uno dei (pochi) punti su cui dissento è la richiesta: «una sola app; una sola finalità; per il tempo strettamente necessario», e specificamente la richiesta di “singolarità” dell'app.

La richiesta è accettabile nell'ottica dell'offerta “governativa”, ma è secondaria rispetto a quello che viene evidenziato nel secondo capoverso del successivo punto («trasparenze, verificabilità e sicurezza») della stessa Lettera:

Il protocollo su cui si basa l’applicazione e le specifiche dell’architettura del sistema, al pari dei documenti che hanno portato e porteranno alle scelte dei decisori, inclusa la necessaria valutazione d’impatto e i preventivi pareri del Garante della Privacy, devono essere pubblici e disponibili con licenza libera, e quindi liberamente verificabili.

Al di fuori del legal-burocratese, si vorrebbe (o dovrebbe) evidenziare l'importanza dell'adozione di un protocollo (degli strumenti —telefonini, braccialetti— tra di loro e con gli eventuali server) che sia pubblicamente documentato, verificabile, e che abbia passato il vaglio di un attento scrutinio di esperti in sicurezza e privacy.

La priorità del protocollo sull'app è essenziale, e permette —tra l'altro— la possibilità di implementazioni multiple indipendenti, evitando i rischi della monocultura.

Implementazioni multiple indipendenti aiutano a garantire la completezza della documentazione del protocollo: eventuali punti dubbi del protocollo (o suscettibili di interpretazione) potranno essere meglio evidenziati (e risolti). Implementazioni multiple indipendenti aiutano anche a garantire la correttezza di ciascuna di esse, nonché la resilienza del protocollo stesso, tramite verifica dell'interoperabilità tra le varie implementazioni.

L'obiezione (tecnica) che si potrebbe sollevare alla possibilità molteplicità delle implementazioni è il rischio della diffusione, da parte di malintenzionati, di “app” di pseudo-tracciamento, il cui vero intento sia semplicemente intrufolarsi nel cellulare dell'ingenuo utente per comprometterne la sicurezza o la privacy.

Tale rischio, benché concreto, non è legato all'unicità dell'app “ufficiale” —già adesso circolano senza ritegno truffe a base di COVID-19: già solo la propaganda pro-tracciamento ha aperto le porte alla truffa, e la difesa contro questo è un'informazione piú completa e trasparente, non l'opaca oscurità che avvolge l'attuale processo decisionale riguardo l'app “ufficiale”.

Punto terzo: trasparenza e fiducia

La questione trasparenza non riguarda solo la comunicazione verso il pubblico, ma anche le scelte adottate per lo sviluppo del protocollo e dell'eventuale app “ufficiale”.

Pecche nel procedimento si ritrovano però già nella comunicazione al pubblico: la succitata pagina di Agenda Digitale sull'app «Immuni», ad esempio, traccia dubbi paralleli tra Immuni e l'iniziativa (privata!) pan-europea PEPP-PT (Pan-european privacy-preserving proximity tracing) il cui unico obiettivo sembrerebbe di tentare una legittimazione “oggettiva” (o quanto meno europea) della scelta locale, e non solo perché rimane non chiaro quanto dello “standard” PEPP-PT verrà seguito in Immuni.

A complicare le cose contribuisce anche la recente evoluzione del PEPP-PT stesso, che sembra aver abbandonato la scelta iniziale di seguire il protocollo decentralizzato DP-3T (Decentralized Privacy-Preserving Proximity Tracing) sviluppato sotto l'egida dell'EPFL —voltafaccia che ha causato la defezione dal consorzio PEPP-PT di grossi esponenti quali l'EPFL stesso ed i suoi partner nello sviluppo del DP-3T.

Pubblicizzare quindi la (per giunta parziale) adesione di Immuni al PEPP-PT non contribuisce al clima di trasparenza e fiducia necessario per favorire la volontaria adesione degli utenti all'utilizzo dell'app.

Ma, come dicevo, la trasparenza può (ed anzi deve) andare oltre. Un aspetto evidenziato ad esempio anche nella succitata «Lettera aperta ai decisori» è la necessità di codice aperto e licenza libera (FLOSS: Free/Libre Open Source Software) per l'app in questione. Questo rientra piú in generale nell'iniziativa europea Public money, public code, ma nello specifico è una necessità per assicurare il pubblico sul fatto che l'app faccia tutto e solo quello che viene pubblicamente dichiarato faccia, nel modo in cui dice di farlo.

La soluzione FLOSS per l'app risulterebbe non solo in maggior fiducia (o quanto meno minore scetticismo) nei confronti dell'app “ufficiale”, ma permetterebbe anche a chi preferisse “non fidarsi” comunque dei binari ufficiali di compilare da sé l'app (o affidarsi a repository noti per l'automazione del processo “dal sorgente all'eseguibile”, come F-Droid).

L'eventuale timore che app “non ufficiali”, magari modificate, possano creare problemi si dovrebbe piuttosto riflettere sull'inadeguata sicurezza del protocollo utilizzato, riportandoci alla superiore importanza di questo rispetto all'app: se il protocollo è talmente fragile da non poter reggere app “non ufficiali”, allora è altamente a rischio di attacco da parte di malintenzionati, e va pertanto evitato indipendentemente dall'apertura del codice dell'app.

Un discorso analogo varrebbe ovviamente non solo per l'app (lato client), ma anche per la sua controparte lato server, soprattutto nel caso di scelta di una soluzione centralizzata piuttosto che distribuita. Ovviamente nel caso del server è molto piú difficile verificare che il codice del server eventualmente pubblicato corrisponda effettivamente a quello utilizzato.

Benché l'impatto di questa incertezza sia limitato nel caso in cui il protocollo e l'app rispettino non solo i requisiti di trasparenza e sicurezza, ma anche quelli di anonimia (non c'è da preoccuparsi che il server possa tenere dati non anonimi oltre il previsto, o cederli a terze parti, se non vi sono dati non anonimi esposti dal protocollo), rimane comunque preferibile una soluzione in cui il problema non si ponga affatto: in termini di trasparenza e fiducia, è quindi preferibile di gran lunga una soluzione decentralizzata.

L'importanza dell'aspetto fiduciario (e quindi della trasparenza senza la quale esso viene a mancare) è evidenziato anche nella succitata review dell'Ada Lovelace Institute, nonché nella Lettera aperta ai decisori del Nexa: l'eventuale efficacia del contact tracing richiede un'installazione “di massa” (oltre il 60%), e questa può essere raggiunta solo con una di tre opzioni: la coercizione (obbligo ad installare l'app), il plagio/inganno (terrorismo psicologico, condanna emotiva a chi vi si oppone), o la convinzione —e quest'ultima, volendo rispettare la facciata dell'“installazione volontaria”, richiede fiducia nei confronti della specifica tecnica adottata per il tracciamento.

Incamminàti sulla strada sbagliata

Diventa quindi palese come, anche concedendo ai “decisori” il beneficio del dubbio sulle miglior intenzioni (che notoriamente lastricano la via dell'Inferno), la strada su cui ci si sia incamminati al momento non sia quella piú saggia.

Manca la priorità necessaria alla disponibilità dei tamponi, senza i quali l'app è inutile.

Manca la priorità necessaria alla disponibilità di dispositivi di protezioni individuali, senza i quali l'app è di scarsa utilità.

Manca la necessaria trasparenza nello sviluppo del protocollo e dell'infrastruttura a cui l'app dovrebbe poggiarsi.

Sono state fatte scelte discutibili, se non addirittura sospette, circa la natura stessa dell'architettura adottata (centralizzata, piuttosto che decentralizzata).

Manca —manifestamente— l'intenzione di mantenere pubblico il codice dell'app.

Ed a causa di tutto questo, viene a mancare la capacità di convincere in maniera naturale i cittadini sulla sua adozione.

Porre rimedio senza mettere a rischio —anzi, migliorando— la potenzialità utilità dell'app: un cambio di direzione, una maggiore trasparenza sul processo decisionale e nello sviluppo del protocollo, l'adozione di una soluzione decentralizzata, richiedere all'esecutore l'apertura del codice sorgente —tutto ben alla portata del governo, avendone la volontà.

Ci troviamo davanti invece ad una strategia comunicativa che rivela ben altri intenti: dalla proposta di rendere l'app obbligatoria se non sarà adottata da un numero sufficiente di persone in maniera spontanea, al “no-trax” pubblicizzato da Burioni per bollare chiunque critichi le tempistiche ed i risultati delle attuali scelte governative —come se alla base di tali obiezioni vi sia una imprescindibile opposizione al tracciamento, piuttosto che le ragionevoli perplessità sugli specifici aspetti della sua realizzazione.

Sarebbe ben piú facile convincere la popolazione all'adozione spontanea dell'app mettendo tutto in chiaro. Come ha risposto Paolo Attivissimo a Burioni:

Non no-trax, ma no-tricks.

Ci siamo quasi?

Secondo me con un po' di fantasia si possono trovare solidi riscontri tra le profezie mistiche rivelate nell'Apocalisse di Giovanni ed eventi moderni. Senza neanche troppo sforzi si arriva tranquillamente ai primi cinque o sei sigilli:

  1. Il primo dei quattro cavalieri:

    E vidi: ecco, un cavallo bianco. Colui che lo cavalcava aveva un arco; gli fu data una corona ed egli uscì vittorioso per vincere ancora.

    Si tratta ovviamente della regina Vittoria e dell'impero britannico.

  2. Il secondo dei quattro cavalieri:

    Allora uscì un altro cavallo, rosso fuoco. A colui che lo cavalcava fu dato potere di togliere la pace dalla terra e di far sì che si sgozzassero a vicenda, e gli fu consegnata una grande spada.

    Non per nulla il XX secolo è stato anche chiamato Il Secolo breve: tra due guerre mondiali ed una guerra fredda non meno mondiale, possiamo dire senz'altro che è stato un secolo dominato dal secondo cavaliere dell'Apocalisse.

  3. Il terzo dei quattro cavalieri:

    E vidi: ecco, un cavallo nero. Colui che lo cavalcava aveva una bilancia in mano. E udii come una voce in mezzo ai quattro esseri viventi, che diceva: «Una misura di grano per un denaro, e tre misure d'orzo per un denaro! Olio e vino non siano toccati».

    L'abbondanza del superfluo e la ristrettezza delle necessità sono i cardini dello schiavismo del terzo millennio e dell'economia disumana votata al profitto a qualsiasi costo.

  4. Il quarto dei quattro cavalieri:

    E vidi: ecco, un cavallo verde. Colui che lo cavalcava si chiamava Morte e gli inferi lo seguivano. Fu dato loro potere sopra un quarto della terra, per sterminare con la spada, con la fame, con la peste e con le fiere della terra.

    Niente di piú attuale: l'esercito schierato, i supermercati vuoti, la pandemia e persino le bestie feroci.

  5. Alle anime degli immolati viene detto di aspettare. Di questo probabilmente non vi saranno segni nel mondo sensibile. (Aggiornamento dell'11 aprile 2020: d'altronde, questa quarenta che viene prolungata di settimana in settimana potrebbe benissimo esserne una concreta metafora.)

  6. La fine del mondo:

    E vidi, quando l'Agnello aprì il sesto sigillo, e vi fu un violento terremoto. Il sole divenne nero come un sacco di crine, la luna diventò tutta simile a sangue, le stelle del cielo si abbatterono sopra la terra, come un albero di fichi, sbattuto dalla bufera, lascia cadere i frutti non ancora maturi. Il cielo si ritirò come un rotolo che si avvolge, e tutti i monti e le isole furono smossi dal loro posto.

    Dovremmo essere circa a questo punto. Certo il recente sisma a Zagabria non promette bene, ma è forse presto per dirlo: se le tempistiche tra i sigilli non mutano, i segni del sesto potremmo non vederli prima dellla seconda metà di questo secolo, se non con l'inizio del successivo. Nel qual caso, un'esplosione simil Tambora (ad esempio dei Campi Flegrei) sarebbe da sola sufficiente a coprire un buon numero dei segni di questo sigillo. Per il momento ci accontenteremo del terremoto 7.5 in Kamchatka e dell'attività della Montagna di Fuoco. (Aggiornamento all'11 aprile 2020: ed anche il Krakatoa ci mette il suo.)

Il vero problema? Siamo talmente in zona “non è vero, ma ci credo” che non sarei sorpreso di scoprire che c'è gente che ci crede davvero. D'altronde, non manca certo gente a cui piaccia far previsioni, pur continuando a sbagliare, quindi perché non farlo anche per noia o per gioco? 'nsamai ci s'azzecca.

Freedom as a paradox

This is (mostly) the English translation of an Italian article I wrote several years ago. There are a few small differences, due partly to that article referring other articles that are in Italian and for which I didn't write a translation, partly to some stylistic preference, and partly to my evolving knowledge —although none of it has so far affected my current belief on the matter, nor alter the core of this post.

When talking about freedom, several things can be said about the use and abuse of the concept, or even its ontologically possibility.

But what I want to discuss here is the paradoxical, when not even self-contradictory nature of the concept of freedom, and its application in the real world.

There are a few necessary premises before it even makes sense to talk about freedom at all; we will therefore assume in what follows that human beings have some quid that we call free will, and that gives them the possibility to choose how to act, within the limits of the laws of nature (that we shall assume by and large deterministic).

We can also take for granted that a human being, as long as they don't find themselves interacting with another human being (or other being provided with free will), is free (to act as they believe most appropriate), but also that in such a context the concept of freedom isn't particularly meaningful.

Indeed, and here we can already see the first paradox, it's more meaningful to define freedom in negative rather than positive terms: talking about freedom is most valuable when freedom is understood as freedom to not be bound by others. Hence the famous maxim that «a person's freedom ends where another's freedom begins» which, paraphrasing Giorgio Gaber, is a «romantic and evocative expression», but doesn't tell us anything about how (or where) the boundary between one's own freedom and that of others should be drawn.

Rather than looking more in depth into this rich subject, we could even remark that the whole discussion could be closed right now with a simple consideration: a being is either free (if they don't interact, directly or indirectly, with any other) or not (since in the interaction with another being they'll inevitably find themselves conditioned or limited in their choices).

But obviously that's not particularly interesting. The true core, when talking about freedom, is precisely in the determination of the limit that bounds one's freedom in relation to others (each of the others individually, and of the others as a collective), or at the very least in the determination of the criteria by which such boundaries could be determined. It's this, after all, the point of contention when debating political, ethical or moral philosophy: if there are boundaries that could be drawn other than the ‘natural’ one dictated by the power difference (however intended), and if so which, and how.

Because of this, ultimately in practice it becomes more important to discuss about freedom in the plural sense, as a collection of single freedoms (to be —or not— free to …) rather than about Freedom as an abstract concept. It's these freedoms that generally, in the formalization of the codices of society, become rights1 and that as such should (in theory) be guaranteed by society itself (the ‘how’ that's supposed to happen, or even ‘if’ it even happens in the first place is obviously an entirely different matter).

In fact, reduction from Freedom as an abstract absence of coercion to multiple single freedoms is not just something for the formally organized society: even the most staunchest supporter of anarchism will end up talking, concretely, about freedom from (taxes, government, the State, religion, …) rather than the abstract Freedom, because ultimately those are the ones that matter concretely.

And yet, this is precisely the point where the possibly most important aspects of freedom come into play: two symmetrical paradoxes riding the transition from being free and being not.

Free to be free

As a premise to the presentation of these two fundamental paradoxes of freedom, I'd like to pose a question: are there freedoms that are more important than other freedoms? Is it possible to define an (at least partial) ordering of freedoms?

I would say the answer to this question is affirmative: after all, it's precisely starting from this that one can define the limits of individual freedoms conflicting with each other. For example, the freedom of movement (the right to go undisturbed wherever one wants to) is in conflict with the right to have a corner where one can be left alone without anybody coming to disturb you. The freedom of a group of people to organize to manifest conflicts with the freedom of other people to use the same path. Which of the freedoms prevails?

Less superficially, it's clear that there are freedoms that are fundamental, in the sense that without them one wouldn't even be able to exercise the other freedoms. Obviously, such fundamental freedoms are more general, and more abstract.

We're talking, for example, to the right to life: I am free to live, and hence others are not free to kill me. Obviously, if I'm not alive I cannot exercise my being free (ignoring the metaphysical and transcendent matter of the freedom of the spirit beyond death).

We're also talking about the right to be free: the freedom to be free: I am free to be free, and therefore others are not free to coerce or constrict me.

It's important to note that these fundamental freedoms, not by chance expressed as rights, are in a certain sense passive2, expressed more precisely by a lack of freedom of others rather than active choice of the individual: where the subject can act, however, is in the defense of such freedom; and yet, in some way, the necessity itself for defence of these fundamental freedoms is a loss of freddom in itself. And this is already a small paradox, that would probably deserve to be discussed more in depth.

Free to lose one's freedom

If the freedom to be free may seem like little more than wordplay, it's in going beyond, in looking at the loss of freedom that the topic becomes more serous, and more interesting.

Obviously, we're not talking here about a loss of freedom resulting from coercion: such an event is clearly nothing more than a violation of one's freedom. But what can we say instead of the case of a permanent, voluntary loss of freedom?

Let us assume that it's realistic what's stated by the Universal Declaration of Human Rights (UDHR), that is that everyone is born free (Art. 1) and they have a right to life and liberty (Art. 2). As long as we're talking about rights, we're implying that others may not deprive us of our life, of our freedom. But this says nothing about the possibility for each of us to choose to lose one's life —or one's freedom.

Are we free to become slaves? It's important to note that such a choice would not be voluntarily reversible: slavery is something you can only get out of by an act of somebody else. In this irreversibility, voluntary loss of freedom isn't that different from a voluntary loss of life (even though the latter is, for obvious reasons, ‘more’ irreversible, unless one believes in reincarnation, or medicine offers us, in the future, the possibility to come back to life after death).

The question is thus: are we more free when we're free to not be free, or if one's freedom is unrenounceable?

The answer is not simple: on the one hand, if I'm free to give up my freedom, and as long as I do not exercise this option, I'm ‘more free’ than I would be if I wouldn't be free to give it up; on the other hand, once I do exercise my freedom to give up my freedom I would be (from that point forward) less free than if I hadn't had the option.

It's not an idle question either, even though in this article I only care about underlying the paradoxical nature. One could ask: why ever would voluntarily choose to permanently lose one's freedom? And the truth is, there are innumerable circumstances in which this can happen, especially when having to face a choice between, e.g. life and freedom.

It's not by chance that the aforementioned Declaration maintains (Art. 4) that no individual can be kept in slavery or servitude: in other words, according to the UDHR, we are not free to lose our freedom.

On the other hand, there are (self-proclaimed) libertarians that support the opposite, at least as long as the situations that would lead one to choose to lose one's freedom come from ‘natural’ circumstances, and are not forced by somebody's intervention (understandably, since otherwise —e.g. if someone was threatening your life if you wouldn't give up your freedom— that would be coercion).

While of the two position is more favorable to freedom? For sure, they're both paradoxical.

Forced to be free

The counterweight to the previous discussion concerns the opposite situation: let as assume we are not free (be it because it's not true that everyone is born free, or because we exercised our freedom to lose our freedom, or because we were coerced into slavery); the question is: can we be forced to be free? (Or on the other side of the barricade: can be force others to be free?)

Let us assume an individual is not free. Let us assume they want to be. Can we help them, free them? Do we have to? (moral duty)

Let us assume instead that they do not want to be free. More, let us assume they want to not be (which isn't exactly the same thing ). Should we free them anyway? (here obviously the question is directly related to what one thinks about one's freedom to not be free).

Or let us assume that we have given ourselves the duty to free those that want to be free, but we do not know if this particular individual does or does not want to be free. Assume the only way to know if they want to be free or not is to free them. Should we?

Or suppose that the freedom of each of us (individually) depends inescapably on the fact that everybody else be free too. Should we free them regardless of their will, if not else to ensure that everybody else (that wants to be free) can be?

Or suppose that this individual doesn't even know they could be free, and therefore they didn't choose in either sense (i.e., in some sense for them not being free is the ‘natural’ condition). Is it morally acceptable or even our duty to show them this possibility?

(To the extreme: if nobody is free, and nobody has ever been, and we do not even know what would really happen if we all were, would the answer be different? But that's a different matter.)

Education to freedom

Closely related to the previous there's another matter we can't go without discussing when talking about freedom, a much more practical, yet no less paradoxical, matter: education to freedom. Can we educate people to be free?

It's interesting to remark that the answer for the opposite is obviously positive: there is a long, glorious, multimillenial tradition of indoctrination, brainwashing, orientation. And one could hardly say it hasn't had (almost) always success.

One could hardly say the same for freedom, and in this case the situation is even more delicate. Indeed, there's a purely ‘technical’ problem: can freedom be even taught in the first place?

But there's also an ethical question: is it morally acceptable (assuming it is even possible) to teach others to be free, or is even just going in that direction coercive? More, like in the case of ‘forcing’ people to be free, is it maybe a ‘moral duty‘ to teach others about freedom?

The problem of education is as important as it is overlooked. On the material possibility to ‘teach’ freedom, on the other hand, there's a lot be said, and the possible methods (and subjects!) deserve an in-depth discussion that falls outside the theme of this article.

It may seem easy to get rid of the matter altogether by maintaining the (debatable) assumption that we are born free, and that the habit to submission and coercion that seems dominant is the one that is ‘acquired’, and as such a truly ‘free’ system wouldn't need to ‘teach’ freedom in the first place. But such a dismissal doesn't take into account some important points.

The first one is, obviously, that precisely because in the context in which we live the dominant mindset seems to be the opposite, some form of ‘teaching’ of freedom (be it only just to ‘unlearn’ the habit to submission and coercion that we have allegedly been instilled since our early years) becomes necessary.

More, it's quite clear that any ‘lesson’ History can teach us is easily forgotten in a couple of generation: how, then, should be educate the new generation to avoid falling back to the system of submission and coercion which we're supposed to get rid of?

The biggest problem is that education is an instrument that can lead to diametrically opposite effects: it can be used to show, illustrate, open the mind, make free, but just as much it can be used to mold the minds into pre-established canons, plagiarize, restrict, close down. But this is a matter that concerns education as a whole, and not something specific to the education to freedom.

The roots of the paradox

Let's go back to, and conclude, the main topic. There is actually a single crucial point from which the whole matter of freedom as a paradox stems from, and that's the issue of keeping one's freedom.

A system based on coercion can easily preserve itself following its own rules. Its founding elements have an internal consistency that make it stable.

On the other hand, a system based on freedom as a fundamental principle cannot be but based on compromise, if not else because «one person's freedom ends where another's begins». Freedom, in itself, cannot thus be an absolute principle, as coercion can be (except, of course, in the trivial case of a single individual that never interacts with any other, not directly, nor indirectly).

The problem is obviously the unavoidable existence of conflictual situations that do not allow a pacific resolution, be it for the inflexibility of the individuals involved, be it for the uniqueness of the sought resource, or be it for any other reason. Even accepting as freely resolved any compromise that the involved individuals may reach3, there will be circumstances in which a compromise may not be reached —and in such a case, coercion of one of the party on the other will be unavoidable.

Therefore, as free as a system can be, it cannot avoid coercion, even if restricted to individual, particular cases: local coercions, so to say, rather than global or systemic. But as minimal as it may be, the most circumscribed of coercion ultimately means, in practice, a negation (even if local) to the freedom as absolute, inalienable principle.

Freedom as a founding principle therefore leads inevitable to an inconsistent, self-contradictory system. This is the root of the paradox of freedom. A fissure, as minuscule as it may be, that irrimediably undermines any discourse that could be born from freedom as an absolute principle.

In other words, any (non-trivial and not superficial) discussion on freedom ultimately coalesces on a deliberation about which compromises are acceptable to be as little non free as possible.

Any situation of conflict is fertile ground for doubts that have no answer that are not limiting to freedom.

Assume for example that there is an unresolvable conflict between two parties. Is a third party, independent from the two, free to intervene (without being asked), in favour of either of the original party? If yes, we're accepting prevarication, if not, we're denying the third party freedom of action in participating in the conflict.

There's also the matter of the relative weight of one's freedom versus those of the others. It's easy to say that all have the same weight: it's much harder to act as if they were, especially in the case of strong divergences, e.g. ideological: should somebody else's freedom be respected purely on ideological grounds, regardless of any other factors, or only if there is reciprocity in respecting one's freedom? Can we equally respect the freedom of somebody who does not believe in respecting freedom?

In the negative case, we get in the sticky situation of selective respect (what is the criterion to decide who's deserving of our respect, and who is not?), on the other side we're keeping the doors open to power moves that may direct society towards more coercive systems.

More in general, what prevents a system, that has freedom of its participants as a cornerstone, from degenerating towards a coercive system? How many, and which limitations can be posed to prevent it from happening?

Now much freedom is it right to lose to guarantee freedom?

  1. the matter is actually considerably more complex than this; there are several ways to present the concept of right, but in the ethical/philosophical sense and in the judicial sense, and not all of them directly or indirectly relate to freedom. But this is somewhat tangential to the whole point of this article, so this gross approximation will do in this place. ↩

  2. this is more usually expressed in terms of Negative and positive rights and similarly with positive versus Negative liberty. I'm not a big fan of the negative/positive choice of terms, preferring passive and active depending on the direct involvement of the subject. ↩

  3. a debatable point, except maybe for the cases where both individual have similar contractual power —so-called “euvoluntary” resolutions. ↩

Me ne vado/1: le tasse

Burioni su Twitter minaccia:

Perché, da residente nella fascia più alta dell’IRPEF, se mi aumentano di un centesimo le tasse monumentali che pago non evadendo nulla, smetto di lavorare e mi godo il tempo libero insieme al denaro già guadagnato. E come me tanti altri.

Non è una “minaccia” originale: esce fuori ogni volta che si parla di alzare le tasse (qui un'analisi del Guardian di un paio d'anni fa), ed è essenzialmente il tema di quella famosa rivolta di Atlante di Ayn Rand che tanto piace agli anarco-capitalisti.

Ma è una minaccia … stupida.

Per inciso, non è mio interesse qui difendere la proposta di innalzamento delle aliquote, o il suo opposto, o piú in generale discutere dell'opportunità o meno di alzare o abbassare le tasse per questa o quella fascia di reddito, o piú in generale di quale sia la migliore politica fiscale: è un tema dibattibile all'infinito, partendo da idee molto diverse di filosofia politica ed economica. Voglio invece semplicemente analizzare la sensatezza della minaccia di risposta del contribuente, da un punto di vista, se cosí possiamo dire, puramente economico.

La minaccia in questione prende due forme, ma rimane sostanzialmente la stessa: «se mi alzate le tasse, smetto di contribuire» (in maniera legale). Le due forme classiche che questa minaccia può prendere sono il trasloco («trasferisco la mia residenza in un luogo con un regime fiscale per me piú conveniente»), ovvero —nella “versione Burioni”— smettere di percepire l'introito che ha subito un incremento di tassazione.


Il problema del trasferimento —come osservato già anche nel succitato articolo del Guardian— è che trasferirsi costa, e costa tanto piú quanto piú è alto il tenore di vita di chi si trasferisce: Bill Gates vive in una magione la cui costruzione è costata piú di 50 milioni di dollari, il cui valore attuale si aggira sui 150 milioni di dollari, e su cui paga circa un milione di dollari di tasse l'anno, piú le spese di mantenimento.

Quanto costerebbe a Bill Gates trasferirsi per motivi fiscali? Supponendo che voglia ricreare un ambiente equivalente a quello in cui vive adesso, possiamo fare una stima a braccio basata sul costo della precedente, aumentato per l'inflazione (2.5% annuo per 20 anni), intorno al centinaio di milioni di dollari, e possiamo supporre che prima di 5 anni non sia pronta (anche se i proprietari potrebbero probabilmente cominciare a trasferirsi prima del completamento dei lavori, volendo).

(Ovviamente, Bill potrebbe decidere di rinunciare a quello stile, ed adeguarsi a vivere ad esempio un preesistente ambiente, tipo un qualunque castello in vendita a una manciata di milioni di euro, soffrendo principalmente intangibili costi psicoemotivi.)

In aggiunta al costo del trasloco in sé, Bill si troverebbe anche a dover continuare a pagare le tasse (ed almeno un minimo di manutenzione) per la sua residenza attuale; tali tasse sarebbero da pagare da non residente (non so come funzionino le cose a Medina, Washington ma sono sicuro che non sarebbero inferiori a quelle che paga attualmente), almeno finché ne rimanga in possesso. E qui sorge un interessante paradosso: chi si potrebbe permettere l'acquisto della tenuta di Bill Gates probabilmente non sarebbe interessato a comprarla —per le stesse ragioni fiscali per cui Bill si starebbe trasferendo— rendendo molto piú difficile sbarazzarsene.

In tutto questo, Bill Gates è certamente un caso abbastanza atipico: parliamo di qualcuno con un patrimonio che si aggira sui 100 miliardi di dollari e che cresce di 5–10 miliardi (netti!) l'anno: una variazione di 1% sul carico fiscale complessivo potrebbe essere sufficiente a giustificare un cambiamento di residenza, giacché già in un paio d'anni avrebbe ammortizzato il costo del trasloco con il risparmio sulle tasse1. Ma di quanti di quei (reali o fantomatici) milionari che dovrebbero fuggire in massa in caso di innalzamento della pressione fiscale possiamo dire lo stesso? O meglio: quanto dovrebbe essere tale incremento davvero per giustificare (anche solo economicamente) la loro fuga?

Con ciò, ovviamente, non mancano certo persone che scelgono la residenza anche —se non sopratuttto— sulla base del regime fiscale; famosamente è questo il caso di Gérard Depardieu, che dal 2012 preferisce il regime fiscale belga a quello francese, nonché di Sean Connery, la cui scelta di risiedere fuori dal Regno Unito mal si mischia con il suo supporto per il movimento indipendentista della sua nativa Scozia.

Smettere di lavorare

Molto piú difficile da comprendere, sempre da un punto di vista puramente economico, la minaccia in stile Burioni: «se mi alzate le tasse smetto di lavorare e passo il tempo a godermi i risparmi».

Perché una cosa del genere abbia senso, il soggetto in questione dovrebbe avere da parte risparmi sufficienti a mantenere il suo attuale stile di vita per il resto dei suoi giorni, o investimenti che garantiscano una rendita adeguata —quanto meno con una sicurezza confrontabile da quella offerta dalla solidità del suo attuale contratto di lavoro— o infine essere disposto ad adeguare (al ribasso!) il suo stile di vita per renderlo compatibile con la disponibilità economica conseguente l'abbandono del lavoro.

Senza queste premesse, infatti, lasciare il lavoro non è una minaccia credibile, poiché altrimenti il reddito netto (per quanto variato dalla tassazione) rimane una necessità.

Possiamo fare alcune osservazioni già a partire da questo.

Se il soggetto in questione vive al limite delle proprie possibilità (ovvero senza mettere da parte una quota ponderata del proprio reddito netto), allora un incremento della tassazione lo costringerebbe a ridurre in proporzione il proprio stile di vita —ma se non mette da parte nulla, rinunciare allo stipendio richiederebbe una riduzione ben piú drastica dello stile di vita. Quanto è credibile allora la minaccia?2

Se invece il soggetto in questione risparmia già una quota parte del proprio reddito netto, l'incremento della tassazione non andrebbe ad inficiare lo stile di vita corrente, perché potrebbe essere assorbita dalla quota dedicata al risparmio, ed avere quindi potenziali conseguenze sullo stile di vita futuro (ad esempio dopo il pensionamento). D'altra parte, anche qui si potrebbe fare un'osservazione non dissimile dalla precedente: quanto dovrebbe essere l'incremento della tassazione da giustificare un abbandono completo dell'introito lavorativo a favore di una dilapidazione corrente dei risparmi (e quindi conseguenze ancora piú gravi sullo stile di vita futuro), rispetto ad un ulteriore accumulo (se pure ridotto in proporzione all'incremento della tassazione)?

C'è ovviamente un fattore importante che manca in questi calcoli: il valore del tempo libero. Al di fuori del reddito, infatti, la principale differenza tra lavorare e non lavorare è la disponibilità di tempo da dedicare ai proprî interessi al di fuori dell'orario di lavoro: assumendo quindi che il soggetto abbia effettivamente da parte abbastanza da poter vivere di rendita, la scelta tra il continuare a lavorare (pur con la tassazione piú alta) o meno dipende sostanzialmente dal valore che si dà al tempo dedicato al proprio lavoro, e dalla propria percezione che il reddito netto che ne deriva sia a questo commensurato.

D'altronde, se il soggetto in questione è del parere che il reddito netto che deriva dal proprio lavoro sia appena sufficiente a coprire il tempo da lui dedicato allo stesso (talmente che, almeno in iperbole, anche un solo centesimo in piú di tasse lo dissuaderebbe dal continuare), viene davvero da chiedersi perché continuare a lavorare potendosi davvero permettere di non: vivrebbe sicuramente in una condizione molto meno stressante, perché per quanto possa essere gradito il lavoro, sempre di lavoro si tratta —con tutti gli oneri che ne conseguono.

Una provocazione

Peraltro, per essere una minaccia, l'atto dovrebbe essere un danno per la società, e viene da chiedersi se sarebbe davvero cosí: sono invece abbastanza sicuro che non manchino candidati che sarebbero ben contenti, anche con l'aumentato carico fiscale, di assumere il ruolo che il soggetto lascerebbe libero rimuovendosi dalla forza lavoro, e certamente l'economica trarrebbe beneficio dalla reimmissione in circolazione dei risarmi con cui il soggetto vivrebbe non percependo piú un reddito lavorativo.

(Ah, e in tutto questo ho intenzionalmente evitato di parlare di pensioni, perché quella è, parafrando dall'inglese, tutt'un'altra lattina di vermi.)

  1. Bill Gates in realtà è anche un caso abbastanza atipico perché rientra in quel gruppetto di miliardari che si esprimono a favore di un incremento di carico fiscale sui cosiddetti “super-ricchi”. ↩

  2. per inciso, con oltre 75K€ di RAL (ultimo scaglione IRPEF), ovvero oltre 40K€/anno netti, in una tale situazione sarebbero necessari piú di 1.6M€ di risparmi per mantenere lo stesso stile di vita per altri 40 anni. ↩

Il principio di Shirky applicato alla politica


Institutions will try to preserve the problem to which they are the solution
Le organizzazioni tendono a preservare i problemi per risolvere i quali sono state create
Clay Shirky, via Kevin Kelly

L'idea è semplice.

Supponiamo che un ente venga creato con lo scopo precipuo di combattere il traffico di droga in, verso e da una certa nazione. Supponiamo che chi lo dirige o ci lavori abbia un'idea geniale che possa risolvere definitivamente il problema del traffico di droga. Supponiamo anche che non vi siano ostacoli burocratici all'attuazione di questa soluzione.

Potrà mai questo ente agire per l'applicazione di questa soluzione? La risposta è no, perché una soluzione (definitiva) al problema comporterebbe la soppressione dell'ente atto a combattere il problema.

Sostanzialmente, per un ente istituito con lo specifico compito di risolvere un problema, raggiungere l'obiettivo significherebbe commettere —di fatto— un suicidio. Questo paradosso è la base del principio di Shirky.

È importante sottolineare, in piú, che —almeno fintanto che l'esistenza dell'ente è sottoposta a decisioni esterne— anche quando l'ente non abbia interesse a trovare una soluzione definitiva è comunque essenziale che mantenga almeno le parvenze della propria necessità, che conduca quindi azioni che almeno apparentemente siano mirate se non a risolvere definitivamente il problema, almeno a contrastarlo con una certa (almeno apparente) efficacia.

Al suo estremo, questo paradosso può persino trasformare una già fiacca quando non puramente fittizia lotta al problema in una sua diretta alimentazione; ad esempio, agenti antidroga che impersonano spacciatori, o una metodica opposizione alla legalizzazione di certe droghe.

Obiettivi politici

Supponiamo che un politico costruisca la propria campagna elettorale su un tema specifico, promettendo —una volta eletto— di risolvere uno specifico problema. Ci si può fidare del fatto che questo politico, una volta eletto in una posizione in cui potrebbe effettivamente risolvere efficacemente il problema, lo faccia?

Sarebbe facile rispondere con un cinico “no”, anche semplicemente basandosi su una diffusa opinione che i politici, per lo piú, mentano sulle promesse elettorali. In realtà, questo cinismo è molto meno diffuso di quanto si potrebbe pensare (nella mia esperienza: è piú diffuso a sinistra che a destra, ma non sono a conoscenza di statistiche che confermino questa mia aneddotica esperienza), e viene spesso “trascurato” quando viene toccato un tema che ci sta particolarmente a cuore, o quando una faccia nuova venga a proporsi come soluzione.

(Proprio la novità, il presentarsi come “anti-enstablishment”, è stata uno degli elementi determinanti per il successo iniziale di Berlusconi, cosí come in tempi piú recenti del Movimento 5 Stelle di Grillo & Casaleggio, nonché della rinnovata Lega Nord “italianista” ed “anti-europeista” —il tutto, ovviamente, senza trascurare la massiccia importanza degli strumenti di propaganda, la televisione vent'anni fa come Internet oggi.)

Il paradossale principio di Shirky ci dà un'interessante chiave “interpretativa” della potenziale onestà del politico, al di là di eventuali questioni di attuabilità; ci permette cioè di rispondere: ammesso e non concesso che l'obiettivo sia raggiungibile, il politico in questione mirerà davvero al suo raggiungimento?

E per trovare la risposta a questa domanda, la chiave in cui bisogna leggere la domanda è in realtà questa: una volta (ipoteticamente) raggiunto l'obiettivo, cosa rimarrebbe da fare, al politico in questione?

Una possibile risposta alla domanda sull'affidabilità del politico, nell'ottica del paradosso, è quindi la seguente: è piú credibile qualcuno sceso in politica solo per risolvere il problema, ma che potrebbe tornare a ritirarsi a vita privata raggiunto l'obiettivo (quindi dopo aver “suicidato” la propria piattaforma elettorale con il mantenimento della promessa), piuttosto che un politico di professione che non ha conosciuto altra fonte di reddito che la politica stessa: per quest'ultimo, infatti, il mantenimento è legato al proprio rimanere in politica, ed il mantenimento della promessa elettorale diventerebbe invece un argomento in meno per le elezioni successive: deleterio, soprattutto per coloro il cui corpo elettorale tende ad essere single-issue.


A volte ritornano

Ovviamente, non è detto che qualcuno con una vita privata soddisfacente, sceso in politica per risolvere uno specifico problema, non cambi idea, scoprendo ad esempio che nel ruolo di politico si ritrova ad avere piú fortuna (o ricchezza o prestigio o quello che sia) che nella sua vita privata: e questo non farebbe altro che farlo rientrare nella situazione del principio di Shirky.


È ugualmente vero che una volta eletto con certe promesse elettorali, un politico non può —in genere— ignorarle completamente: dovrà almeno fingere di perseguire l'obiettivo preposto, dimostrando un almeno apparente raggiungimento di risultati almeno parziali —senza però mai andare veramente a fondo nella questione, e se possibile cercando anzi di ostacolare chi provi a risolvere davvero il problema. Eventuali fallimenti potranno comunque essere scaricati su alleati inaffidabili, agenti esterni, agenti interni o qualunque altra forza presunta opposta alla risoluzione del problema —specchietti per le allodole che distraggano dal reale mancato intento del politico stesso.


Voglio inoltre sottolineare che il principio di Shirky si applica sempre e comunque: potrebbe sembrare particolarmente rilevante nel caso di un politico che scommetta la propria carriera su una particolare vittoria politica, ma in realtà una tale scommessa è assolutamente irrilevante, ed il principio di Shirky è anzi il suo opposto: la scommessa (comunque facilmente non mantenuta) è in genere del tipo «se non riesco a far passare questa legge, mi ritiro dalla politica»; il principio di Shirky, se fosse esplicitato, sarebbe formulato piuttosto con un «se riesco a far passare questa legge, mi ritiro dalla politica, quindi non proverò veramente a far passare questa legge». Su questo spenderò qualche altra parola piú avanti.


(Non è invece legata al principio di Shirky l'ipocrisia di quelli che fanno campagne contro X (droga, pedofilia, omosessualità, etc) salvo poi essere colti con le dita nella marmellata, colpevoli proprio di ciò contro cui facevano campagna.)

Per esempio

Un esempio paradossale

Se il programma elettorale di Silvio Berlusconi fosse stato incentrato esplicitamente sulla difesa dei suoi problemi giudiziari, e possibilmente dei suoi interessi commerciali, sarebbe stato ben piú credibile della sua propaganda “anticomunista” e “liberale”, non tanto (o non solo) perché avrebbe reso espliciti i suoi veri intenti, ma anche, e soprattutto, perché avrebbe potuto dimostrare la non applicabilità del problema di Shirky: cancellati i proprî reati e riassettate le proprie finanze, avrebbe potuto tornare a fare l'imprenditore senza doversi piú occupare di politica personalmente (assumendo ovviamente in tutto questo che la sua discesa in politica non avesse ulteriori secondi fini, legati ad esempio ad interessi mafiosi).

Un esempio senza sbocco

Come osservato, il principio di Shirky ha un suo complementare nelle “scommesse elettorali”: un recente esempio lampante in questo senso è stato Matteo Renzi, con la sua scelta di (fingere di) giocarsi la carriera politica sulla riforma costituzionale Renzi-Boschi, minacciando (o promettendo?) di non farsi piú vedere in caso di fallimento del referendum.

Possiamo constatare che nella realtà dei fatti, fallito il referendum, la sparizione di Renzi si sia limitata ad un passo indietro dal ruolo ricoperto ad allora (presidenza del Consiglio dei Ministri), ma al di là dell'ipocrisia del caso specifico quello che a noi interessa è l'analisi del paradosso in cui si andrebbe a cacciare un politico “onesto” (ovvero convintamente intenzionato a mantenere le promesse) nel fare una scommessa del genere, su una legge o riforma che sia anche il suo cavallo di battaglia elettorale (come peraltro era il caso per Renzi).

Per non cedere al principio di Shirky, il politico dovrebbe infatti sostanzialmente promettere (e mantenere!) di ritirarsi dalla politica dopo aver raggiunto l'obiettivo; con la scommessa promette (e dovrebbe mantenere!) invece di ritirarsi dalla politica se non raggiunge l'obiettivo: in fin dei conti, con una scommessa del genere un politico onesto dice semplicemente «comunque vada, mi ritiro dalla politica». Almeno in assenza di scappatoie.

Un esempio concreto

Un pilastro della campagna elettorale di Matteo Salvini prima e dopo le Elezioni politiche italiane del 2018 è stato il contrasto all'immigrazione. Vi sono varî motivi per dubitare dell'onestà della promessa di Salvini1, ma il primo di tutti è proprio il principio di Shirky.

Salvini ha come principale fonte di reddito2 la propria attività politica. In quanto tale, non può mirare davvero al raggiungimento degli obiettivi che si pone —qualunque essi siano, ed indipendentemente dalla loro effettiva realizzabilità— semplicemente perché questo comporterebbe la fine della sua carriera politica —salvo notevoli trasformismi (a cui, c'è da riconoscere, non è certo estraneo3).

È indubbiamente vero che Salvini è tutt'altro che l'unico ad essere in questa situazione (anzi, si potrebbe anche arrivare a dire che sono ben pochi —se ve ne sono affatto— i politici italiani che non condividano questa condizione con lui), ma il suo caso è particolarmente interessante non solo perché l'obiettivo sul controllo dell'immigrazione sarebbe quanto meno approcciabile, se non addirittura raggiungibile, ma anche e soprattutto perché il suo operato da Ministro degli Interni del Governo Conte è ricco di elementi caratteristici del principio di Shirky in azione. Qualche esempio:

  • prendersi meriti legati alle azioni del governo precedente;
  • l'ossessione contro le ONG “taxi del mare”, nonostante oltre il 90% degli sbarchi sia “fantasma”, o con salvataggi della Guardia Costiera italiana (specchietto per le allodole);
  • il siluramento del GICIC, Gruppo Interforze di Contrasto all'Immigrazione Clandestina (ostacolo a chi agisce per risolvere il problema);
  • l'emanazione di due decreti (Decreto Sicurezza e Decreto Sicurezza Bis) di alto impatto propagandistico e scarso o nullo impatto effettivo, quando non addirittura controproducenti (propaganda e falsa realizzazione, con amplificazione dei problemi);
  • accuse al potere giudiziario che vanifica il suo (illegale) operato (scaricabarile delle responsabilità su presunti nemici interni);
  • la reiterata mancata partecipazione agli incontri EU sulla gestione dei flussi migratori, salvo poi assegnare all'EU presunte intenzioni negative al contrasto di detti flussi (ostacolo al raggiungimento dell'obiettivo e scaricabarile delle responsabilità su presunti nemici esterni).

Sia ben chiaro che con questi esempi non è mio interesse ridurre l'operato di Salvini all'applicazione del principio di Shirky, bensí solo mostrare come già solo a questo livello si possa manifestare la sua malafede.


Per concludere il discorso, possiamo vedere cosa giace oltre il principio di Shirky nella politica, ovvero quali vie d'uscita si propongano ad un politico che fosse onesto (ovvero intenzionato a mantenere le proprie promesse elettorali), ma anche cosciente della propria capacità politica, e quindi interessato a mantenere il proprio ruolo (di politico di professione).

La piú semplice delle scappatoie è quella di porsi obiettivi chiaramente irraggiungibili, ma asintoticamente approcciabili: sarebbe in tal caso possibile “vincere” ad ogni elezione avvicinandosi all'obiettivo senza fingere di star provando a raggiungerlo.

Un'idea piú sofisticata potrebbe essere quella di non manifestare subito l'intero programma elettorale, ma attuare una rivelazione progressiva: ad esempio, si potrebbe cominciare con una piattaforma elettorale costruita su una particolare riforma, e solo una volta attuata questa riforma spostare la propria piattaforma elettorale sul passo successivo.

Per mantenersi nell'ambito dell'“onesta” è ovviamente necessario che il programma elettorale, anche nella parte non manifesta, abbia una sua coerenza ideologica (e non affidare quindi il proprio “rinnovamento” elettorale al piú becero ed incoerente dei trasformismi, seguendo la “pancia” del popolo con logiche puramente numeriche). In tal caso, a parte le accuse di dissimulazione, vi sarebbe anche la possibilità di un crescere del consenso basato proprio sul raggiungimento degli obiettivi («oh, finalmente un politico che fa davvero quello che dice»).

La migliore delle soluzioni sarebbe ovviamente un approccio combinato, con un obiettivo ultimo manifesto ed utopico, e programmi elettorali realizzabili per gli infiniti passi intermedi (per questa legislatura ci concentreremo sull'aspetto X; una volta raggiunto questo obiettivo intermedio ci occuperemo dell'aspetto Y; etc).

Ma forse è chiedere troppo.

Una nota finale

L'intera esposizione è costruita sull'applicazione del principio di Shirky al singolo esponente, ma il principio è ugualmente applicabile anche al gruppo, al movimento: un partito fondato sul raggiungimento di uno specifico obiettivo tenderà a non provare davvero a raggiungerlo, poiché questo poterebbe al suo scioglimento. Direi anzi che tale tendenza diventerà tanto maggiore quanto piú tempo sarà trascorso dalla fondazione del partito; possiamo quindi prevedere tre possibili termini per un partito: il rapido raggiungimento del proprio obiettivo (e la conseguente dissoluzione del partito), l'esaurimento della spinta propulsiva verso il raggiungimento dell'obiettivo (e la conseguente dissoluzione del partito), l'innesco di meccanismi legati al principio di Shirky, ed il conseguente perdurare del partito contro i proprî interessi dichiarati.

O per dirla con le parole di Harvey Dent:

You either die a hero, or you live long enough to see yourself become the villain.

O muori da eroe, o vivi tanto a lungo da diventare il cattivo

Harvey Dent in The Dark Knight

  1. a partire dalla generale inaffidabilità del soggetto, protagonista dell'apparente trasformazione della Lega Nord da partito secessionista con nemico principale l'Italia intera ed in particolare il meridione a partito nazionalista con a cuore l'interesse di tutti gli italiani contro i forestieri —del nord (EU) e del sud (Africa) ↩

  2. almeno formalmente; stiamo quindi escludendo altri aspetti quali i famosi 49 milioni di euro spariti dalle casse della Lega, o i presunti 65 milioni di euro di intrallazzi illeciti con la Russia. ↩

  3. ovviamente, si potrebbe osservare che il trasformismo di Salvini costruisce comunque sullo stesso modus elettorandi: una propaganda basata in maniera molto elementare sull'odio o sul disprezzo dell'inferiore, cambiando il presunto nemico, ma non certo la retorica. ↩

An answer to the legendary “Question six”

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.


You can find an introduction to the legendary “Question Six” in this Numberphile video. This article is my attempt at providing a “simple” answer to the problem, sketched from the hints provided in this more detailed insights video.

To be clear this isn't my personal “best effort” at trying to solve the problem (I did give it a quick try, starting from an intuition that induction would be the key, but I didn't get very far in). I also have no idea if this is how it was solved by any of the candidates that did provide the correct answer to the problem.

No, this is just a formalization into an actual proof of the hints provided by Simon Pampena in the second video. The proof should still be easy to follow even with only a basic knowledge of algebra.

The problem

Let a and b be positive integers such that ab+1 divides a2+b2. Show that


is the square of an integer.

The solution



We want to show that if a,b are positive integers and f(a,b) is an integer, then f(a,b) is a square.

Observe first that if a,b are non-negative integers, and one of them is 0, then the statement is trivially true, since f(a,0)=a2 and f(0,b)=b2.

Assume now that a0,b integers with 0<a0<b are such that f(a0,b) is an integer. We want to show that there exist a non-negative integer a1<a0 such that f(a1,a0)=f(a0,b). Note that with this proven, we can apply the result iteratively, constructing a sequence {ai} with 0ai+1<ai and such that f(ai+i,ai)=f(a0,b). Given the strictly decreasing nature of the sequence and the non-negativity of the values, the sequence will terminate in k<a0 steps, with ak=0, leading to f(a0,b)=f(0,ak-1)=ak-12, proving that f(a0,b) is the square of an integer.

Let us then prove the existence of a1. Let N=f(a0,b). By hypothesis, N is an integer and we have


that with simple algebra can be rearranged into

b2-Na0b+a02-N=0.  ()

This implies that the quadratic equation


has the solution x=b. Dividing the polynomial


by x-b gives us1 the second root, a1=Na0-b, which again is an integer.

We need to show that a1<a0, i.e.


or equivalently


Note that by bringing the leftmost two terms in the right-hand side of equation () to the left-hand side and flipping the equation, we have


but since a0<b, this implies:


and thus


quod erat demonstrandum.

  1. E.g. using Ruffini:

    1 -Na0 a02-N b b b2-Nba0 1 b-Na0 b2-Nba0+a02-N=0 where the reminder is known to be 0 because of equation (). ↩

Risolvere un quizzino della domenica (3)

xmau propone per oggi un quizzino della domenica che consiste nel “risolvere” una semplice somma espressa utilizzando i numerali romani (I, V, X) in maniera impropria: invece di rappresentare addendi e risultato semplicemente esprimendo i numeri con il meccanismo romano, i numeri sono espressi nel sistema decimale posizionale che ci è familiare, ma ciascuna delle cifre è espressa con i numerali romani1: I per 1, II per 2, III per 3, IV per 4, V per 5, VI per 6, VII per 6, VIII per 8, IX per 9, con l'aggiunta difficoltà dell'assenza di spazi tra le cifre.

L'esposto del problema è il seguente:


L'assenza di spazi è proprio ciò che rende questa una “crittosomma”: è infatti impossibile, con un semplice colpo d'occhio, capire ad esempio se una sequenza come III rappresenta la cifra 3 o una delle coppie di cifre 21 e 12.

L'unica “sequenza” di cui possiamo essere sicuri è IX, giacché X rappresenta il valore 10 secondo il sistema di numerazione romano, e nel sistema posizionale da noi adottato non esiste una cifra con questo valore, per cui IX è sicuramente 9. Possiamo quindi “semplificare” la nostra crittosomma in:


Rimangono da interpretare le due sequenze di numerali romani nella somma finale: VI, che può essere 6 o 51, e IVI che può essere interpretata in tre modi diversi: 151, 41, e 16.

Un dubbio

Un problema aperto (che speriamo non sia determinante per la soluzione) è la lettura delle cifre: le piú significative saranno scitte a destra, come vuole la convenzione che abbiamo ereditato dagli arabi, o saranno scritte a sinistra, come sembra suggerire l'allineamento?

Alla prova del 9

Per cercare di limitare le possibili interpretazioni possiamo osservare che non tutte le interpretazioni hanno la stessa congruità modulo 9. Specificamente, mentre le sequenze “additive” (simbolo di valore maggiore seguito da simboli di valori non inferiori) hanno tutte lo stesso valore modulo 9, quelle potenzialmente sottrattive (simbolo di valore inferiore seguito da simbolo di valore maggiore) possono avere due possibili interpretazioni, con valori modulo 9 che differiscono di un valore pari alla differenza tra il valore additivo e quello sottrattivo del simbolo di valore inferiore.

Nel nostro caso, le uniche coppie ambigue sono IV per cui la differenza di valore sarà 2. Come esempio, vediamo che VI alla “prova” del 9 darà sempre 6 (sia che venga letto come 6, sia che venga letto come 51), per IV abbiamo due valori diversi a seconda che IV abbia valore “additivo” (15 = 6) o “sottrattivo” (4).

Per la somma finale, alla prova del 9 abbiamo quindi due possibili valori: 4 (interpretazione additiva di IV) oppure 2 (intepretazione “sottrattiva” di IV).

Il secondo addendo ha pure un'unica sequenza IV, e quindi due interpretazioni: 3 (additiva) e 1 (sottrattiva).

Il primo degli addendi ha invece due sequenze IV , e quindi ha tre possibili valori (a seconda che le due sequenze siano entrambe additive, entrambe sottrattive, o una additiva ed una sottrattiva, indipendentemente da quale sia quale): i valori associati sono 1 (additive), 6 (sottrattive) e 8 (mista).

Alla prova del nove, le possibili combinazioni dei due addendi sono: 1+1=2, 1+3=4, 6+1=7, 6+3=8+1=0, 8+3=2. Poiché la somma è congrua 4 o 2 modulo, possiamo scartare per il primo addendo l'interpretazione sottrattiva: quindi o entrambe le sequenze del primo addendo vanno lette additivamente, oppure la lettura del primo addendo è mista, e quella del secondo è additiva (caso 8+3=2).

La cifra piú a sinistra

La cifra piú a sinistra della somma è 5 o 6, e quindi le cifre piú a sinistra dei due addendi devono arrivare almeno a 4 o 5, piú un opzionale riporto dalle due cifre successive (supponendo che la notazione metta a sinistra le cifre piú significative).

Osserviamo subito che questo non è possibile se per il primo addendo si utilizza la lettura puramente additiva: in tal caso infatti la cifra piú a sinistra del primo addendo è 1, mentre quella del secondo è al piú 2, arrivando a 3, che è insufficiente.

Ne segue che per il primo addendo si deve usare la lettura mista, con la prima sequenza IV interpretata sottrattivamente (ed a fortiori la seconda interpretata additivamente). Questo ci porta quindi nel caso 8+3=2 della prova del9, che implica un'interpretazione additiva del secondo addendo, e sottrattiva della somma: la sequenza IVI con cui termina quest'ultima può pertanto essere letta solo come 41.

Possiamo quindi ulteriorimente semplificare la nostra crittosomma in


Dei rimanenti simboli V sappiamo che vanno interpretati additivamente, e quindi o avranno valore 5 (a sé stanti) o saranno parte di sequenze per 6, 7 oppure 8.

Il lungo problema dell'1

Un terzo aiuto nel vincolare le interpretazioni ci viene dal possibile numero di cifre. Per la somma abbiamo solo due possibili interpretazioni: 6941 e 51941, di lunghezza rispettivamente 4 e 5. Nessuno dei due addendi può avere una lunghezza superiore (potrebbero avere una lunghezza inferiore se le cifre meno significative fossero a sinistra ed avessimo un riporto tra quelle piú significative, a destra).

Questo vincolo risulta particolarmente potente in congiunzione con il problema dell'1: un interessante corollario dell'uso del sistema numerico romano per la rappresentazione delle cifre è l'assenza di un modo per rappresentare lo 0: questo ci aiuta perché, non potendovi essere 0 negli addendi, l'unica cosa che può fare spuntare la cifra 1 nella somma è una coppia di cifre con riporto.

Guardando alla somma, abbiamo due possibili interpretazioni rimaste: 6941, e 51941. La seconda, in particolare, ha un 1 in seconda posizione (non sappiamo ancora se per le decine o per le migliaia), e questo non è ottenibile in alcun modo.

Supponiamo infatti che la lettura corretta della somma sia 51941. La cifra piú a sinistra del secondo addendo dovrà quindi essere 1, poiché se dovessimo leggere la sequenza iniziale II come 2, avremmo 4+2=6. (L'alternativa per arrivare a 5 come cifra piú a sinistra piú significativa richiederebbe un riporto dalle cifre precedenti, che però possono essere lette al massimo come 5+2=7, e non potremo mai avere un riporto di 4 dalle cifre ancora precedenti per arrivare ad un riporto dalle seconde.)

Saremmo quindi a

11VIIIII   =

ma diventa a questo punto impossibile ottenere un 1 in seconda posizione, non potendo esserci uno zero nel primo addendo, o un riporto tale da lasciare un 1.

L'unica lettura possibile per la somma è quindi 6941, e questo richiede (sempre per una questione di riporti) che la cifra piú a sinistra del secondo addendo sia un 2: la nostra crittosomma è ora parzialmente risolta come

2VIIIII    =

e possiamo affermare che tutti e tre i termini sono composti da 4 cifre: potrebbero essere 3 con un opportuno riporto dalla somma delle cifre piú significative, ma il primo addendo non può avere solo 3 cifre.

Il vincolo sulle lunghezze è particolarmente importante per l'interpretazione del secondo addendo, per il quale rimangono 6 simboli per 3 cifre, con poche letture possibili: 811; 721 o 712; 631, 622 o 613, ed infine 532 o 523.

Anche qui ci viene in aiuto la questione dell'1 (terminale, stavolta), che risolve, insieme al vincolo delle lunghezze, anche la questione dell'ordine delle cifre: l'unico modo per ottenere un 1 come cifra piú significativa sarebbe un riporto da due addenti con tre cifre, e come già detto il primo addendo non può avere solo 3 cifre.

Da questo si deducono due fatti importanti: le cifre meno significative sono a destra (quindi alla fine otterremo numeri con le cifre ordinate secondo la convenzione cui siamo abituati), e per gli addendi queste sono rispettivamente 8 e 3, le uniche letture possibili per ottenere un riporto che ci lasci indietro l'1 della somma:

2VII3   =

che lascia come possibili letture per il secondo addendo solo 2613 o 2523. E poiché dobbiamo arrivare a 9 come seconda cifra da sinistra, ed abbiamo al piú 3 dal primo addendo, e nessun riporto, la cifra dopo il 2 deve essere un 6, con un 3 in sua corrispondenza sul primo addendo, che ci permette una completa risoluzione del problema:

4328 +
2613 =

  1. non è esplicitamente enunciato nel testo, ma stiamo supponendo che si utilizzi solo la grafia che non prevede piú di 3 simboli uguali consecutivi, benché in realtà la forma additiva con quattro I sia storicamente attestata. ↩

Risolvere un quizzino della domenica (2)

xmau propone per oggi un quizzino della domenica che consiste nel trovare la singola cifra (di quelle da 1 a 9) che rimane fuori inserendo nelle caselle del seguente schema le altre otto:

Il quiz chiede di trovare la cifra “in piú”, e per farlo è sufficiente (ma, come vedremo, non necessario) risolvere lo schema.

Note: questo articolo fa uso di MathML, lo standard XML per le formule matematiche. Purtroppo, questo non è supportato correttamente in alcuni browser sedicenti ‘moderni’ o ‘ricchi di funzionalità’. Se le formule non hanno senso nel tuo browser, segnala il problema agli sviluppatori (del browser), o passa ad un browser che supporti questi standard.

Cominciamo dalla riga superiore: abbiamo una divisione a:b=c in cui i tre numeri a,b,c devono essere tutti distinti tra loro e compresi tra 1 e 9. Questo ci aiuta ad escludere, come valori possibili di a, sia l'1, sia i numeri primi (2, 3, 5, 7) sia i quadrati (4, 9), ciascuna con motivazioni diverse:

  • se a=1, allora deve essere b=c=1, e quindi abbiamo ripetizioni;
  • se a è primo, dovendo essere ba dovrebbe essere b=1 (poiché a non ha altri divisori, essendo primo), e quindi c=a (ripetizione);
  • se a è un quadrato, come divisori ha solo 1,a (esclusi), o un terzo valore ba per cui a:b=b, nuovamente una ripetizione.

Gli unici valori possibili per a, ovvero per la casella in alto a sinistra dello schema, sono quindi 6 oppure 8, per cui gli unici valori possibili per le altre due caselle della prima riga sono 2, 3 oppure 4.

Osserviamo ora che la colonna di destra di fatto è analoga alla riga superiore, poiché a:b=c è equivalente a c×b=a: la casella in basso a destra vale quindi 6 oppure 8, e la casella centrale della colonna vale pure 2, 3 oppure 4.

Quindi o la casella in alto a sinistra vale 6, e quella in basso a destra vale 8, oppure è al contrario. In entrambi i casi, possiamo osservare che la casella in alto a destra deve essere il divisore comune a 6 ed 8, e quindi deve essere 2.

Usando una notazione simil-sudoku possiamo scrivere:

e la presenza delle coppie 3/4 e 6/8 ci permette di escludere questi 4 valori dalle tre caselle mancanti, che possono quindi solo contenere i valori 1, 5, 7 e 9.

Soluzione del quiz

Osserviamo che già ora, senza completare lo schema, possiamo dire quale valore sarà escluso: nessuna delle tre caselle rimanenti, infatti, può avere valore 9, giacché questo renderebbe impossibili le operazioni necessarie per arrivare rispettivamente a 6 o 8.

La risposta al quiz è quindi: il 9 è la cifra mancante.

Completamento dello schema

Come per il lato superiore e quello destro, possiamo osservare che il lato sinistro e quello inferiore presentano la medesima simmetria: la sottrazione sul lato sinistro è equivalente alla somma sul lato inferiore. Ragionando analogamente a quanto visto per la divisione e la moltiplicazione, possiamo quindi dire che la casella inferiore sinistra prenderà l'addendo comune (in questo caso, 1) e le altre due caselle avranno rispettivamente 5 e 7, a seconda di dove saranno 6 ed 8.

Per completezza, possiamo quindi osservare che lo schema ha due possibili soluzioni, rivelate passando il cursore del mouse sull'immagine seguente (a sinistra e a destra per risultati diversi):

The product logarithm

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

There is something I learned today that, as a mathematician, I should have probably learned some time ago: the name of the function that solves the equation


where e is Napier's constant. I did know that the equation didn't have an elementary solution, but that didn't really help me solving the problem I wanted to solve, which was to find a solution to the equation:


for positive k,c (and x too, for what it's worth).

Apparently the non-elementary function we're interested in is called Lambert's W or ω function, or the product logarithm. It is the (multi-valued, in fact) function such that


The name product logarithm comes from the analogy with the (natural) logarithm


and the fact that there's an extra x multiplying the exponential on the right hand side of the equation we want to invert (solve for x).

I'm not going to discuss the properties of the function (I mean, what would the Wikipedia link above be here for, otherwise), but I will show how it can be used to solve the equation we're interested in, something that is not shown on Wikipedia and actually had me thinking for a while —mostly about the fact that I was obvioulsy missing something trivial, as it often happens in mathematics.

The general idea, to use the product logarithm in solving an equation, is to bring it in the form


which then leads to


and finally, assuming f is invertible, to x=f-1(W(c)). Of course, how to get to the form we want is not always obvious.

Let us take for example the equation I wanted to solve:


Making sure k appears both as power of e and outside of it is trivial: simply multiply by k both sides. However, how to make sure we have the same power of x muliplying the exponential and as a power is not: the most obvious ideas (divide by x both sides, or multiply and divide by x the power and then try to juggle things around) don't really take you anywhere.

We'd have to be able to take the square root … wait, that might actually work!1 If we take the square root on both sides, then we get two equations (with the only difference being the sign, so we'll write it as one):


Now we can balance the constants:


and apply the definition of W to get


and finally


As mentioned, W is a multi-valued function. However, for the specific application we derived the equation for we needed the largest positive value, meaning we need specifically the W0 branch (which is the only one that gives positive value), and since W0 is monotone increasing, we want the solution with the largest argument, that is, ultimately:


a surprisingly elegant formula —for which there is no built-in function in the C++ standard library.

(Surprisingly, making the latter discovery wasn't enough to reduce my enthusiasm and satisfaction in finding the answer and discovering the function, although it will be a problem I'll have to solve in the next few days —I'm not really looking forward to having to include the GSL or Boost libraries just for this.)

  1. this is actually more or less how it went. ↩

6cm per flag

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

Nation, flags and memory card games

One of the “portable” games offered by Flying Tiger is a memory card game with national flags as a theme. The game has 68 cards (34 national flags) and I like it not only because it's one of the largest memory games I've seen, if not the largest (about 50 cards or fewer being the norm, for what I can see), but also because of its educational side-effect, as each card features not only the flag, but also (in the “native” language as well as in English) the name of the nation and the name of the capital city.

After the first play, my first consideration was that Mexico was missing from the flags/nations (why Mexico? personal reasons). The next thing I noticed was that the selection of nations is essentially centered around Europe, with only a handful of extra-European nations included. This is when I realized how small the selection is: 34 nations is less than a fifth of the nations of the world, even if you consider the smallest possible set (the 190 states whose sovereignity is undisputed).

So obviously, my next thought was: how large would such a memory card game be? 190 states (at least) means 190 pairs, or 380 cards. The Flying Tiger cards are squares (with rounded corners) with a side length of 55mm, and I don't think it's reasonable to go much smaller. In fact, considering the padding between cards that is needed for practical reasons when laying them down for playing, we can assume square tiles with a 6cm side. That's 36cm², or 0.0036m² per tile. 380 such tiles would cover an area of 1.368m².

Curiously, 380 is very close 19.562, which means that if the 190 pairs were laid out in a square, they would take up a square area with a side of almost exactly 117cm, or 1.17m. Even I would have troubles reaching the cards on the opposite side of the table. Of course, you can't actually do that, because 380 is not a perfect square, so you cannot tile the cards on a square: you would have to either have to do a 19×20 rectangle (with sides of length 1.14m and 1.2m respectively), or a 20×20 square with an empty diagonal.

The issue of placing the memory cards in a pleasing pattern has always fascinated me. My daughter has a 48-cards game, which I like because the card can be laid out in a 7×7 square with a hole in the center. My son has a 32-cards game that can be laid out as a 6×6 square with missing corners.

In fact, the 68-cards game that spurred these consideration is a bit annoying because 68=8×8+4, but the 4 extra cards cannot be placed in a nice symmetric way with good alignment because the sides of the square are even, not odd. Possible placemets are the “wheel” pattern (extending each of the sides with one card), the “shifted” pattern (place each extra card on the middle of each side, spanning the gap between the two central cards of the side), or the “versus” pattern, good when playing 1v1 games, with two extra cards on each of two opposing sides.

Obviously, the next question is: how many nations would you have to include to be able to tile out the cards in a “good” pattern?

Perfect squares

this solution can be achieved with 20×20=400 cards, or 200 states (note that without holes or extra cards, the square must be even); problem is, Wikipedia lists 206 states when including the ones with disputed sovereignity; we'd have to cherry-pick some, leaving out six of them;

The hole

an odd square can be made even by taking out a central hole;

a possible solution would be 19×19-1=360, but this would require removing 10 nations from the “uncontroversial” list;

the next one would be 21×21-1=440, which would require 220 states: can we find 14 other territories to add to the 206 states currently listed by Wikipedia?

Give or take more

good patterns can be obtained by removing the 4 corners, or by having 4 extra cards —particularly with an odd square;

20×20-4=396 would require 198 states, which could be assembled from the 193 UN member states, the 2 observer states, plus more (decisions, decisions);

21×21-1-4=436 would require 218 states: we'd only need to find 12 more than the ones listed by Wikipedia.

19×19-1+4=364 would require 182 states: still too little;

As it turns out, 380 isn't even that bad: since 19×19-1+4×5=361-1+20=380, a decent tiling can be found with a 19×19 square, without the center, plus 5 cards centered on each side.

And a long stick to pick the cards on the other side of the table.

But I want more

Revision 6.0 of the Unicode standard introduced Regional Indicator Symbols and their ligatures mapping to «emoji flag sequences». Of the 26×26=676 possible combinations, only 270 are considered valid, and if we ignore the 12 «deprecated region sequences», this leaves us with 256+2=258 “current” region sequences. We could use this as the basis for our memory card game!

With 258 regions we have 258×2=516 cards. What would be a good pattern? We have 516=22×22+32=22×22+4×8 which actually lends itself to a decent layout: a 22×22 square, plus 8 cards centered on each side.

How large would such a memory game be? At 6cm per tile, the main square wold be 1.32m wide. The extra cards on each side would make it 1.44m wide, which is actually a pretty nice number1 —if unwieldy in practice. Still, if we're basing our choice on what Unicode supports, why not build such a game around computers? You'd need lots of players to make sense of it anyway.

  1. anybody familiar with TEX would recognize 1.44 as “magnification step 2”, per Knuth's recommendation of scaling sizes by a geometric progression of ratio 1.2. ↩

How far can you see?

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

Something that everybody (but the staunchiest believer in a Flat Earth) can agree on is that you can see farther by climbing higher. Indeed, getting to a higher place not only helps you see beyond any obstacles that might be in your line of sight, but it actually helps you see farther along the surface of the Earth even if there are no other obstacles than Earth's own curvature: it's the reason why ships have a Crow's nest.

So the obvious question is: how much farther can you see by climbing higher? And people that follow me will surely have already caught on: yes, we're trying to solve the inverse problem to how high do you have to go. In fact, we'll recycle the figure:

Again, we assume we're dealing with a spherical Earth of known radius r. This time, however, we assume h known (how far high we are), and we want to know d, the distance along the geodetic to the farthest point we can see1. Equivalently, we want to know the angle α subtending the geodetic, since by definition of radian its amplitude in radians is just dr, hence d=rα. And again, of course, we know that it will be for sure 0α<π2, i.e. 2d<πr.

In fact, from our study on the direct problem we know that the relationship between h and α can be expressed as


which we can invert rather easily; divide by r:


add 1 on both sides:


and take the reciprocals, swapping the two sides:


Given our range of existence for α, we can use the inverse function of the cosine, arccos, to get the final formula for α


and from this get


As a quick check, for h=0 we have α=arccos1=0, while for h growing to infinity we get α=arccos0=π2, as we would expect.


As with the previous problem we would like to devise a formula that can be applied easily under the assumption that the angle is small. The most obvious approach would be to use the first term(s) of the Taylor expansion of the arc cosine, as it's usually done for small-angle approximations. However, Taylor series for these functions are usually developed around 0, whereas we would like to develop them around 1, since a small angle, in our case, leads to an argument of 1 for the arc cosine.

(In fact, we can see that better if we focus on the argument to the arc cosine:


assuming h<r.)

From a mathematical perspective, writing a Taylor expansion of arccos around 1 is not recommended, since some assumptions needed to ensure good convergence behavior for the series cannot be guaranteed (in particular, the fact that 1 is at the boundary of the domain of the arc cosine rather than inside it is a no-no).

Worse, if we opt to disrergard the warning, we find out that we can't even do what we want, since the derivative of the arc cosine is


which isn't even defined for x=1.

We could try leveraging the nice relationship between the arc cosine and the arc secant:


but that barely helps us, since the arc secant's first derivative is


for x>1 so that again, for h=0, we would have a degenerate case.

Look ma, no inverse functions!

To work around this conundrum, let's take a step back, to:


and let's use the small-angle approximation for the cosine; we get




which gives us a much more approachable


and finally, with an ugly square root,


In fact, there's two horrible things in this formula: the division of a (potentially) very small number by a very large number, and a square root.

For the ratio, we can rewrite things with our friend q=rh under the assumption that h0 (sensible, since otherwise α=0, which isn't very interesting):


with q large (in fact, potentially tending to +).

As it turns out, ignoring for a moment the 2 factor, the rest has a power series expansion, in the form of a Puiseux series that can be written in an acceptable form in terms of p=1q=hr:


Curiously (but unsurprisingly) the first order term is what we get if we just ignore the 1 in the non-expanded formula.

More in general, we shouldn't be surprised by the need to compute p with a square root, given that in the other direction we used s=2q2. But then again, if we have to compute a square root, why even bother doing it for p when we can do it directly for α?

So, shall we just stop at


or can we do something more interesting?

(Aside for local manipulations, such as:


of course.)

Another rollback

To find a better formula, let's roll back to


and work on the right-hand side, which we can write as (1+hr)-1. For small h (compared to r) this has a curiously nice expansion:


so that our equation for α becomes:


and truncating:


but also


The nice thing about these formulas is that we can rewrite the right-hand side in terms of q, giving us


which comes in very handy if we don't stop at α, but actually go and compute d:


that is interesting since it expresses the distance in terms of “the height, multiplied by something” rather than “the radius of the planet, multiplied by something”.

In fact, in this case we can even try pulling out the 2 from under the square root:


(well, sort of; but at least it has some symmetry to it).

A different approach

Remember that we could also express h as the exterior secant, that could be expressed in terms of the tangent function, giving us


Can we try inverting this instead? Let us proceed by expressing the tangent in terms of t=tan(α2):


and let's solve for t:




We can go for a direct solution now, with


The good news is that, in contrast to the situation with the arc cosine, we would need to go now for the expansion of the arc tangent for small values of the tangent, which is just its argument, giving us the following approximation:




If instead we wanted to use small-angle approximation for t, giving us t2=α24, we'd get


or finally


Would you look at that, it's the same formula! That's good news, like the fact that the 2 is already out of the square root (well, at least one of them!) and when we go for d:


we have the same nice symmetry that we had with the previous approach —but no h outside of the square root.

Going crazy

As an alternative, we could leverage that fact that 0α<π2, so that we are in the range where


which would give us


that we can manipulate to







And assuming α0 (which for us would only be the case if h=0) we can actually simplify this to


Going for the small-angle approximation (that, as we've seen, gives us the same result regardless if we go first for the arc tangent), we finally get:


and for the distance that we're interested in:


with an amazing similarity to the h2(q-1) we had found before. (Of course, for small enough h i.e. large enough q, the extra term, be it +1 or -2, doesn't really matter, 2q prevails.)

(As someone might have noticed, this approximation is nothing more than the length of the HS segment, i.e. the distance from the observation point «as the crow flies» rather than along the geodetic1.)


Pick your poison (as usual, q=rh). The exact formula is:


And several possible approximations:







Oh, and do you know how you can tell that this is the inverse problem? Because the formulas are uglier.


How far can a human being with their eyes 2 meters from the ground (yes, it's a tall human being) see? Let's pretend that r is 6,400 km (yes, it's a larger-than-ours planet). We have 2q=6,400,000 (how convenient, the 2 simplifies with h!), so its square root is marginally (less than 0.2) smaller than 2530 (damn, one would hope that with that nice 64 … but no, we went and had an odd number of zeroes!). We multiply that by the 2 meters of height, and it turns out that the tall man can see over 5 km in the distance, marginally less than 5,060 m. The exact solution would be 5,059.64… m —not bad, not bad at all!

Let's say you managed to climb up to the top of Mt Everest: then 2q would be something less than 1,500, and its square root around 38. If not for the weather and the mountains and everything else, you could se things nearly 340 km away —336 km and counting, which is still just as good as the exact solution, within less than a meter.

It's interesting to see what happens if we push the boundaries of these approximations: assume h equal to r, i.e. q=1. Then the exact formula gives us d=rπ3, i.e. around 1.05r. What about the rest?

Formula Result for h=r i.e. q=1 Quality
d=r2hh+r d=r Not that bad
d=2rh2r+h d=23r1.15r Could be better
d=h1+2q d=3r1.73r Losing it …
d=h2(q-1) d=0 Oh, come on!

Overall, the situation isn't even that bad: only one formula completely misses the target, and for two out of three of the others the error is relatively small (5% to 10%). Sadly, but unsurprisingly, the worst behaving approximations are the ones expressed for h rather than r: the extra benefit in their simplification comes more strongly from the “small h” assumptions, and that's why they fail the hardest.

The extra mile

A slightly different question that we might be interested in is: how much more can you see by going to higher ground? In other words, if we have two different heights h1 and h2 (say, h1<h2), and the corresponding distances d1 and d2 (for which it will still be d1<d2, since the arc cosine is nondecreasing), what would be, for example, the ratio d2d1 compared to the ratio h2h1, or the difference compared to the difference?

For the ratio, I'm not aware of a formula, but for the difference there's actually a way to express the difference of the arc cosines, giving us


which is quite the mouthful that offers only a little bit of possibility for simplification, if it can be called that way:


or possibly even


Of course, if we couldn't easily reason (or simplify) the analytical formula for the geodetic distance visible from a certain height, much less so we can hope to do derive any interesting information from the present formula.

A bit of insight on the other hand can be derived by looking at the derivative of d as a function of h, in particular using the expression for the arc secant.



and the arc secant derivative for positive arguments, we get


(interestingly enough, the r on the numerator cancels with the r coming from the derivative of hr+1). We can work on simplifying this


and finally


(and we can rejoyce in the knowledge that even well-known software tools with strong analytical capbilities have issues trying to integrate that, while we know the result from the previously computed d2-d1) that tells us pretty clearly how quickly the rate of growth decreases as h increases.

We can still massage the expression to give


or even


which is a bit improper (we're expressing a derivative with respect to h using q), but it makes life easier for us if we want to know how small variations in height affect how far you can see.

Let's pretend for example that humans, on average have their eyes about 1.6 m from the ground; then q=4106 assuming our usual r, and the rate of change of d with respect to h is about 1,414: a centimeter of difference alters your perspective by about 14 m.

Let's linearize this too!

Of course, the expression we have for the derivative isn't that nice either. It would be better if we could approximate that one with something more manageable. And there is, in fact an expansion for the formula assuming h small (or q large):


and our previous example works perfectly if we stop at the first order, since q2=21061414.

And now that we have it easy, we can see what happens around 2 m of baseline (yes, we can still use the first-order approximation for the derivative): q2=1.61061264: a centimeter of difference alters your perspective by less than 13 m.

(Notice how moving our baseline up by 40 cm has reduced the effect of fluctuations by over 1 m per cm.)

  1. we're picking the distance along the geodetic because we're looking at this issue as the inverse to the previous problem, but we could also look at this in a slightly different manner, i.e. considering the distance «as the crow flies»: this is in fact different, since we'd be talking about the HS distance instead of the PS arc.

    Curiously, the formula for the crow's flight interpretation is actually simpler, since we're looking at a leg of the right triangle with hypothenuse r+h and other leg r: the crow's flight is then (r+h)2-r2=h2+2hr=h1+2q, which is, in fact, one of the approximations we'll find for d. ↩  ↩

How high do you have to go?

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

You are standing on the beach of a great lake, and realize that the other side is far enough to not be visible. You'd have to get to a higher place. But how much higher?

To simplify things a little bit, let us assume that the Earth is spherical, so that the geodetic (shortest path on the surface) connecting any two points on the surface is the arc of a great circle, and let as denote the radius of this sphere by r (which is something less of 6,400 km).

Let us denote by d the distance (along the geodetic) between the place P where we are and the place S we want to see. Let h be the distance above the Earth surface our eyes have to be to be able to see S due to the curvature of the Earth.

Observe that the center of the earth C, the place S we want to see and the place H we have to be at to see it represent a right triangle with hypothenuse CH and legs CS and SH. We also have CH=CP+PH=r+h, CS=r and the arc PS=d.

By definition of radian, the angle PCS has amplitude α=dr (radians). As a side note, we remark that this whole construction only makes sense if α<π2, or 2d<πr (we will discuss this more later).

We also have that cosα=CSCH, and thus CH=CScosα, that is r+h=rcosα and finally:





To proceed further, let us assume that d is very small compared to r, so that the cosine of the angle is very close to 1. We can then make use of the small-angle approximation cosx=1-x22, which brings us to




and rememering that α=dr,


Taking advantage of the fact that rd is probably easier to compute than dr for us, we can rewrite the previous expression as


A different formula

Let's go back to


and remember that, with t=tan(α2), we can write cosα=1-t21+t2, so:




simplifying to


or still again, dividing numerator and denomitator by t2,


For small α we can approximate t=d2r and 1t=2rd. This gives us


The only difference is that we're subtracting 12 instead of 1 at the denominator. In fact, in most cases (small d) we can completely disregard the subtracting costant.

A historical note

When computers were not as common as they are today, and time-consuming accurate computations were optimized by the use of look-up tables, several derived trigonometric functions were in common usage. The one we care about is the exterior secant (exsec for short), that represents exactly the ratio of the length we are interested in to the radius of the circle:


The interesting thing about exsec is that you can express it in terms of the tangent simply as


The first terms of the Taylor expansion around 0 for this function are:


as usual with α=dr.

If we stop at the first term (the same we would get from our knowledge of the first-order approximation of the tangent), we get an approximation of h as


which, while written differently, is in fact the same expression that we've seen already, but with a null constant —as anticipated.

Knowing additional terms allows us to write higher order approximation (if we would ever need it):


If we wanted to express this in terms of the easier-to-compute-and-square q=rd, we would get:


Finally, since we know the next term in the series, let's do that (and stop there, since coefficients start becoming very large afterwards): expanding α we get


and expressing this in terms of q:


TL;DR summary

If you want to know how high you have to go over the surface of a sphere of radius r to see a point which is at distance d along the surface of the sphere, compute q=rd and then your height can be computed as


For higher-order terms, set s=2q2. The second term then gives us


and if we want to push it further


(The formulas are in Horner's form, which makes for quicker computation and express elegantly the “extra contribution” from each new term.)

An example

As an example, let's say that d is about 160 km, which puts rd at around 40, squared to 1,600, doubled to 3,200. Disregarding the subtracting constant (i.e. using the exsecant expansion), the final result is h=64003200=2 km. The correct value would be 2.00052..., so our approximation is good within half a meter out of 2km, a relative error of about 2.6%.


You can't see further than a quarter circle in each direction, and that's only at infinite distance from the sphere surface; so we must have dr=α<π2 or 2d<πr. (Using the approximation π227, which is a slight overestimation, we get the easier condition 7d<11r).

On the Earth, this would mean distances up to about 10,000km, which means you wouldn't be able to see Cape Town from Reykjavik (over 11,400km), but you could see Hong Kong from Rome (9,280km).

However, the formulas we presented aren't accurate in the whole domain: the error term for the higher order approximation is of order 6, and in the highest order we presented is of order 8, which is very good as long as your angles are less than 1 radian, but actually gets really bad really fast after that.

(Intuitively, you can tell that the formula doesn't work when the distance approaches its maximum because the exact formula diverges, while the ones we have proposed don't.)

To see this in action, consider the Rome to Hong Kong case. We have q=1.45, squared to 2.1025, doubled to s=4.205.

Our lower-order estimate for h is 1,522km. Our higher-order estimate for h is 1,824km. Our highest-order estimate is 2,160km. The correct answer is 46,711km, over 20 times higher!

So, how far can you push the formula? How large can the angle be before the error you commit is too large? What would be a possible workaround? (Aside from the obvious: use the exact formula.)

The anarchist curve

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

As visually discussed here, a set of equations has recently been popping up as graffiti in Belgium. The equations define five functions of one variable, namely:

f(x) = 2+ -(x-2)2 + 1 g(x) = 2- -(x-2)2 + 1 h(x) = 3x-3 i(x) = -3x+9 j(x) = 0,2x+1,7

Plotting the five functions with x[1,3] (the domain of existence of f and g) gives the well-known anarchist logo



As mathematicians, we can take this a step further and define an Anarchist curve, by finding the implicit form of the plot of each of the function, and then bringing them together.

In this case, f,g together define the circle, with equation


or rather (fully implicit):


The three functions h,i,j describe the ‘A’ shape. We first rewrite j in a nice form as


and then write the implicit equation for each of them, multiplying the one for j by 10 to get rid of the fractions:

h : y-3x+3 =0 i : y+3x-9 =0 j : 10y-2x -17 =0

We can now multiply all the left hands together, obtaining:


which is the equation for the ‘A’.

If we then multiply this for the left-hand side of the implicit equation for the circle, we have the Anarchist curve


(which, for the record, is currently missing from the list of known curves in the Wolfram Alpha database.)

(There's a few more we could draw similarly, but that's for another time.)

Pi Day

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

Today's date, March 14th, is considered Pi Day, since written in the North American (and a few other places') convention of putting the month before the day, 3/14 can be read as the three most significant digit of


I personally disagree with this choice, mainly for two reasons:

  1. it depends on the decimal representation of π; in hexadecimal, we have π=3.243F... so that the correct day would be March 2nd (hexadecimal 24 is decimal 36, and no month is that long);

  2. it depends on the (IMO barbaric) convention of putting the month before the day in numerical date representations, which is far from being international (day/month/year being much more common) or standard (the ISO standard goes for year-month-day).

While the second point is debatable (I'm not aware of ISO standard recommendations for dates without years, which might be used as a resolution), the first point is easily fixed by going for a fractional representation of π instead; and a well-known fractional approximation of π is given by 227, that dates as far back as Archimedes at least. Of course, 22/7 is not really possible in the month/day representation, but it makes perfect sense as July 22nd.

Mathematically speaking, July 22nd is preferable to March 14th as Pi Day also because the relative error introduced by approximating π as 227 is 0.04%, while the 3.14 truncation has a relative error of 0.05%, so July 22nd is a better approximation to π than March 14th.

The best Pi Day

Arguably, in the year 2015, the “American way” has another benefit: writing the year in the short (two-digit) form, we get an even better approximation of π as 3.1415, and by further appending the time we have an actual instant in which π is presented exactly.

The argument fails miserably when taking into account that the time to be considered (9:26:53) would need to be padded by a 0 before “appending” it to the date, and there's always the decimal representation issue, and the fact that the time is sexagesimal …

If the year is to be considered, better dates can be chosen, with the following argument. Consider the continued fraction expansion of π:


Side note: the afore­men­tio­ned 227 is exactly the continued fraction [3,7].

Taking only the first three terms, corresponding to the date 3/7/15, we get [3,7,15]=333106, which is accurate to 0.0026% (better than the 0.0029% of 3.1415, even). So, March 7th 2015 (resp. July 3th 2015, depending on date notation) are both better approximations than March 14th (resp. June 22nd) for π this year.

But as it happens, we can do better: if we take the first four terms of the continued fraction, we get [3,7,15,1]=[3,7,16]=355113 which is an excellent approximation to π, with an error of less than one in ten million (a hint to this is the following huge 292 number).

The best date-fractional approximation of π will happen next year, on March 7th in North America, Belize and whichever other country prefers month before day, and on July 3rd in the rest of the world.

Going beyond π

As a mathematician, one gets to think: we stop at π day, aside from the obvious pi/pie pun? There are so many other interesting numbers to look into!

Tau Day and the τ manifesto

For example, there are people that believe that π is wrong, and τ=2π should be considered the fundamental constant of the circle, and


The proposed Tau Day (in the manifesto linked above) is thus on June 28th, following the North American tradition. We obviously disagree, and would rather look for a fractional date choice. We thus go and look at the continued fraction representation of τ,


And taking the first three terms we get [6,3,1]=[6,4]=254 which approximates τ to 0.5% (May 25th). Sadly, in this case the fractional approximation is worse than the truncation (0.05%), due to the fact that the next continued fraction term [6,3,1,1]=[6,3,2]=447, which approximates τ to 0.04%, is not a good date (although it was on 6/3/2). Is this a hint that π is, in fact, better than τ?

e, ϕ, what else?

Similarly, we can go looking for the best date for Napier's number e, for which we can choose 197, accurate to 0.15% and dating to July 19th. For the golden ratio Φ the best candidate is 119, with an error of 0.21% and dating to either September 11th (oops), or November 9th, depending on convention.

(It should be mentioned that the continued fraction representation of e and ϕ is not interesting enough to give us something useful for the year.)

For anybody interested in exploring rational approximating dates, I've also cooked up a quick'n'dirty Ruby script that does the finding for you.

Have fun.

I biscotti di Wythoff

Il problema

Note: questo articolo fa uso di MathML, lo standard XML per le formule matematiche. Purtroppo, questo non è supportato correttamente in alcuni browser sedicenti ‘moderni’ o ‘ricchi di funzionalità’. Se le formule non hanno senso nel tuo browser, segnala il problema agli sviluppatori (del browser), o passa ad un browser che supporti questi standard.

Si pone il seguente problema, derivato da questo articolo su G+: determinare la formula esplicita della successione di numeri naturali1 (ovvero della funzione F:) che soddisfa le due seguenti condizioni:

  1. è strettamente crescente;
  2. l'i-esimo elemento non appartenente all'immagine di F è F(F(i))+1.

Vediamo innanzi tutto di capire bene il secondo punto, cominciando con l'osservare che l'unica successione strettamente crescente che ha come immagine l'intero è la successione a(n)=n. Per dimostrarlo, prendiamo una qualunque (altra) successione strettamente crescente b e sia k il primo indice per cui b(k)k; risulterà anzi necessariamente2 b(k)>k, ed avremo quini b(n)=n<kn<k e b(n)b(k)>knk, da cui risulta che k non è immagine di alcun numero naturale secondo b.

Ora, se ogni successione strettamente crescente non banale ha come immagine un sottoinsieme stretto di , possiamo considerare il complementare della sua immagine in , H=\F(), che sarà un insieme non vuoto e quindi (in quanto sottoinsieme di ) totalmente ordinato e numerabile; in soldoni, in tale complementare possiamo considerare il primo elemento (inteso come il minimo), il secondo elemento (il più piccolo elemento di H maggiore del primo elemento), etc.

La seconda condizione su F ci dice quindi che il primo elemento di H è esattamente F(F(1))+1, che il secondo elemento di H è F(F(2))+1, etc. Volendo, la cosa si può riformulare dicendo che H è l'immagine della successione h(n)=F(F(n))+1.

La domanda a questo punto è se effettivamente esiste (almeno) una successione F che soddisfi i requisiti prescritti, e (in caso affermativo) se tale successione sia unica. Vi sono vari approcci per trovare risposta alla domanda, ed uno dei più immediati è sicuramente quello costruttivo: dimostriamo che F esiste ed è unica determinando i valori di F per ogni n e mostrando come essi siano univocamente determinati.

Nel procedimento, ci serviremo di due ulteriori osservazioni. La prima è che in una successione strettamente crescente di numeri naturali a si ha sempre3 a(n)n; la seconda è che nel complementare H del codominio di F non possono esservi mai due interi consecutivi (infatti, se kH, avremo k-1=F(F(n)) per un opportuno n, e quindi k-1, essendo nell'immagine di F, non starà in H).

Costruiamo dunque la nostra F, e vedremo come nel farlo costruiremo di necessità anche H (ovvero, come visto, equivalentemente, la successione h dei valori non assunti da F).

Abbiamo innanzi tutto che F(1)=1. Se così non fosse, infatti, sarebbe 1H; di più, 1 sarebbe il primo elemento di H (non possono infatti esservi in H numeri più piccoli), e quindi dovrebbe essere (per la seconda proprietà di F) 1=F(F(1))+1, da cui risulterebbe 0=F(F(1))F(1)1 (dove le due disuguaglianze sono ottenute dalla precedente osservazione su valori e indici delle successioni crescenti).

Da F(1)=1 segue che F(F(1))=F(1)=1 e quindi h(1)=2: il primo elemento di H è 2, e quindi F(2)3 (per la crescenza di F abbiamo F(2)2, ma 2HF(2)2).

Possiamo anzi dire che F(2)=3: se infatti fosse F(2)>3, dalla crescenza di F seguirebbe che F(n)>3n>1, che in congiunzione con il fatto che F(1)=1<3 ci direbbe che 3 non è immagine di alcun elemento, e quindi 3H, ma ciò è impossibile, essendo 2H e non potendosi avere, come osservato, numeri consecutivi in H.

Quindi F(2)=3, da cui segue che F(3)4 (stretta crescenza di F), e quindi il secondo elemento di H sarà h(2)=F(F(2))+1=F(3)+15 e quindi h(n)5n>1, per cui 4H e, per complementareità 4F(); sarà quindi4 F(3)=4, da cui infine h(2)=5.

Così procedendo possiamo calcolare manualmente ciascun valore di F e di h, ottenendo qualcosa come la seguente (l'idea, in soldoni, è di ‘riempire’ i valori di F finché possibile, e quindi quelli di h secondo la formula della seconda condizione):

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
F 1 3 4 6 8 9 11 12 14 16 17 19 21 22 24
h 2 5 7 10 13 15 18 20 23 26 28 31 34 36 39

Se questa tecnica costruttiva ci può servire come prova dell'esistenza (ed unicità) della F (e della relativa h), non sembra dirci molto sulla sua forma chiusa.

Possiamo però studiare i primi termini delle due successioni F ed h e notare ad esempio che —almeno nella sequenza iniziale— esibiscono questo tipo di comportamento:

  • per F, valori successivi differiscono tra loro di 1 o 2 (più spesso 2 che 1) unità;
  • per h, invece, i ‘passi’ tra un valore e il successivo sono di 2 o 3 (più spesso 3 che 2) unità.

Le successioni di Beatty

Il comportamento in questione è tipico delle successioni di Beatty, una classe di successioni il cui termine generico ha la forma nϑ per un fissato ϑ numero reale positivo irrazionale (il simbolo rappresenta la funzione ‘parte intera’). Se ϑ>1, la successione è strettamente crescente, e la differenza tra due termini consecutivi è sempre compresa tra ϑ e ϑ+1.

Una interessante proprietà delle successioni di Beatty è che se α e β sono irrazionali positivi tali che 1α+1β=1, allora le rispettive successioni di Beatty partizionano i numeri naturali (ovvero, sono complementari e la loro unione è data dall'intero insieme ).

Vi sono forti indizi che le nostre successioni F e h siano successioni di Beatty complementari. Per risolvere il nostro problema basterebbe quindi trovare una coppia di numeri irrazionali α,β che soddisfino 1α+1β=1 e che generino rispettivamente F,h soddisfacenti la famosa seconda proprietà, scrivibile come h(n)=F(F(n))+1n.

Per trovare i generatori in questione cominciamo con l'osservare che, secondo quanto osservato finora, il generatore α di F dovrebbe essere compreso tra 1 e 2, mentre il generatore β di h sarebbe compreso tra 2 e 3. Da 2<β<3 e 1α+1β=1 seguirebbe anzi che 32<α<2 (da cui si potrebbe già intuire chi possa essere α, essendovi un famosissimo numero irrazionale proprio in quell'intervallo —ma noi cercheremo di essere più formali).

Partiamo quindi dalla famosa seconda proprietà, che scritta in forma esplicita nel caso di F,h successioni di Beatty ci dice che per ogni positivo n risulta nβ=nαα+1, ovvero nβ=nαα+1, e quindi -1<nβ-(nαα+1)<1, da cui ancora 0<nβ-nαα<2.

Essendo α irrazionale e positivo possiamo scrivere (n-1)α<nα<nα, e quindi spezzare l'ultima catena di diseguaglianze in nβ-(n-1)α2>nβ-nαα>0 e nβ-nα2<nβ-nαα<2. Dividendo per n ovunque e portando un α2n a minorare nella prima diseguaglianza otteniamo infine la relazione α2n<β-α2<2n vera per ogni n, da cui in definitiva β-α2=0 e quindi β=α2.

Abbiamo quindi che α,β devono soddisfare 1α+1β=1 e β=α2. Sostituendo nella prima abbiamo 1α+1α2=1 o α+1=α2, la cui unica soluzione positiva è la famosa sezione aurea φ=1+52.

In definitiva, abbiamo dimostrato che se una coppia di successioni di Beatty complementari soddisfa le condizioni richieste, allora dovrebbe avere come generatori φ e φ2. Per concludere che le successioni di Beatty con questi generatori sono effettivamente quelle che cercavamo rimane ora da verificare che esse soddisfano i due criteri5.

La crescenza di F è immediata conseguenza del fatto che il generatore è maggiore di 1, quindi rimane da provare la famosa seconda condizione, che vista la complementareità delle successioni possiamo esprimere così: dimostrare che per ogni n risulta nφ2=nφφ+1.

Osserviamo innanzi tutto che, posto k(n)=nφ-(n-1)φ, risulta nφ2-(n-1)φ2=k(n)+1. Infatti, essendo φ2=φ+1, possiamo scrivere nφ2=nφ+n e (n-1)φ2=(n-1)φ+n-1; sottraendo membro a membro otteniamo nφ2-(n-1)φ2=nφ-(n-1)φ+1=k(n)+1.

Abbiamo quindi che nφ2=(n-1)φ2+k(n)+1, e per provare la nostra tesi basta dimostrare che nφφ=(n-1)φ2+k(n), eguaglianza che possiamo riscrivere nφ(1+1φ)=(n-1)(φ+1)+k(n), ovvero nφ+nφφ=(n-1)φ+n-1+k(n). Essendo nφ=(n-1)φ+k(n) la nostra tesi si semplifica nel dover dimostrare che nφφ=n-1 o equivalentemente6 n-1nφφ<n che possiamo riscrivere (n-1)φnφ<nφ.

La diseguaglianza di destra è immediata essendo φ irrazionale, rimane quindi da provare che (n-1)φnφ. Supponiamo per assurdo che sia vero il contrario, ovvero (n-1)φ>nφ, da cui seguirebbe (n-1)φnφ; ma (n-1)φ<nφ, quindi (n-1)φnφ, e pertanto (n-1)φ=nφ, che implica nφ-(n-1)φ<1, ovvero φ<1, assurdo7.

Abbiamo così completato la nostra dimostrazione e verificato che le successioni di Beatty con generatori φ e φ2 sono effettivamente quelle cercate.

Le successioni di Wythoff

Queste due successioni sono meglio note come la successione inferiore (F) e superiore (h) di Wythoff. Queste due successioni sono state scoperte appunto dall'eponimo matematico nello studiare un famoso problema di teoria dei giochi che prende vari nomi (problema di Wythoff, il gioco delle scatole dei biscotti, etc).

Il gioco ha la seguente forma: ci sono due scatole di biscotti, e due giocatori si alternano scegliendo quanti biscotti vogliono da una sola delle due scatole, oppure lo stesso numero di biscotti da entrambe le scatole. Vince il giocatore che prende l'ultimo biscotto.

È evidente che se una delle due scatole è vuota, o se ambo le scatole hanno lo stesso numero di biscotti, il primo giocatore vince. Il gioco si fa più interessante se entrambe le scatole sono piene ed il numero di biscotti non è equamente distribuito.

Ad esempio, se le scatole hanno rispettivamente 1 biscotto e 2 biscotti, è evidente che il secondo giocatore vincerà, qualunque sia la scelta fatta dal primo giocatore. Ovviamente, partendo da un'altra configurazione, un giocatore dovrebbe quindi cercare di arrivare alla distribuzione 1/2 per aver garantita la vittoria. La domanda è: quali altre configurazioni hanno tale proprietà? Ovvero, quali coppie di numeri (a,b) sono tali che, qualunque sia la mossa del primo giocatore, il secondo si può garantire la vittoria?

Con un poco di calcoli si scopre che le coppie (ordinate, con a<b) che garantiscono la vittoria al giocatore che le raggiunge sono

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
a 1 3 4 6 8 9 11 12 14 16 17 19 21 22 24
b 2 5 7 10 13 15 18 20 23 26 28 31 34 36 39

e se la tabella vi ricorda qualcosa è perché i valori sono esattamente gli stessi visti nella precedente tabella: le coppie (F(n),h(n)) sono le configurazioni vincenti nel problema di Wythoff.

Una nota finale

Concludiamo questa nostra rapida escursione sulla questione osservando che h(n) ha una forma ben più semplice della già vista F(F(n))+1, e questa è h(n)=F(n)+n. La cosa, chiaramente visibile dai valori in tabella e facilmente dimostrabile8, ci permette di leggere le successioni di Wythoff in questo modo: ogni coppia (F(n),h(n)) è la coppia vincente in cui la differenza di contenuto tra le due scatole di biscotti è pari ad n.

Questo, combinato con la proprietà di partizionamento di di cui godono le due successioni (ogni intero sta in una ed una sola delle successioni, e quindi anche in una ed una sola coppia) e con il fatto che il gioco è puramente ‘sottrattivo’ (da una configurazione all'altra si passa solo diminuendo uno o entrambi dei contenuti) è sufficiente a definire la strategia vincente, che viene lasciata come esercizio per il lettore.

  1. si intende qui l'insieme dei numeri interi strettamente positivi. ↩  ↩

  2. l'affermazione è ovvia nel caso k=1, poiché non vi sono numeri naturali1 minori di 1; se invece k>1, posto l=b(k) e supponiamo per assurdo l<k: essendo b(n)=nn<k per la scelta di k, avremmo, b(k)=l=b(l), e quindi b(l)=b(k) con l<k, che viola la stretta crescenza di b. ↩

  3. si dimostra ad esempio per induzione. Come base induttiva abbiamo che a(1)a(1)1. Supponiamo ora che a(n)n e dimostriamo che da questo segue a(n+1)n+1: per la stretta crescenza della successione abbiamo a(n+1)>a(n)n, ovvero a(n+1)>n, e non essendovi numeri naturali tra n ed n+1 questo equivale ad a(n+1)n+1. ↩

  4. se fosse F(3)>4, per la crescenza di F si avrebbe F(n)>4n>3, da cui, sapendo che F(1)<4 ed F(2)<4, seguirebbe che 4F(). ↩

  5. tale verifica è necessaria perché l'ipotesi da noi fatta (ovvero che F ed h siano successioni di Beatty complementari) potrebbe condurre ad un assurdo, da cui seguirebbe che in realtà esse non sono successioni di Beatty. ↩

  6. si ha x=m se e solo se mx<m+1, da applicare nel nostro caso con x=nφφ,m=n-1 ↩

  7. osserviamo che per un arbitrario numero reale positivo α la diseguaglianza (n-1)αnα non è in genere verificata, come si vede prendendo ad esempio α=1K per un fissato K naturale ed osservando che per ogni 1<n<K si ha nα=nK=0<n-1K=(n-1)α; la diseguaglianza è però verificata per tutti i numeri reali α1. ↩

  8. essendo nota la forma esplicita delle due successioni, ci basta provare che nφ2=nφ+n; partiamo quindi dall'equazione che definisce la sezione aurea: da φ2=φ+1 segue, per ogni n, nφ2=n(φ+1) e quindi anche nφ2=nφ+n, o equivalentemente nφ2=nφ+n, ciò che volevamo dimostrare. ↩

Quelli che … il COVID

Quelli che con una buona dormita passa tutto, anche il COVID, oh yeah.
Quelli che è soltanto un'influenza, oh yeah.
Quelli che le mascherine non servono a niente, oh yeah.
Quelli che hanno le mascherine due misure piú grandi, oh yeah,
Quelli che tengono il naso fuori dalla mascherina, oh yeah,
Quelli che usano la stessa mascherina per un mese, oh yeah,
Quelli che si abbassano la mascherina e si sporgono in avanti per parlarti, oh yeah.
Quelli che si abbassano la mascherina e starnutiscono tra le mani, oh yeah.

Quelli che #milanononsiferma, oh yeah,
Quelli che la Lombardia ha gestito bene la pandemia, oh yeah,
Quelli che il Veneto ha fatto meglio delle altre regioni, grazie Zaia,
ma poi Zaia silura Crisanti e la regione va allo sfascio, oh yeah.
Quelli che denunciano Crisanti perché fa fare brutta figura alla regione, oh yeah.
Quelli che ogni regione deve fare per sé, oh yeah,
Quelli che si sorprendono di non poter venir trasferiti in un'altra regione quando le ITU della loro sono sature, oh yeah.

Quelli che dobbiamo tornare alla normalità, oh yeah
Quelli che è importante che la gente non si abitui a vivere piú rilassata, oh yeah
Quelli che se non torniamo in ufficio i palazzinari piangono, oh yeah.
(E i bar del centro con le insalatine da 15€, oh yeah.)
(E gli estetisti, e i negozi di vestiti di via Monte Napoleone, oh yeah.)

Quelli che i ristori sono una miseria rispetto a quanto incassavo prima, oh yeah,
(ma non hanno mai denunciato al Fisco quello che incassavano prima, oh yeah.)
Quelli che piangono miseria perché il governo gli ha chiuso la catena di bar e ristoranti, oh yeah,
Quelli che si scopre che gli avevano chiuso il bar prima della pandemia perché non pagava l'affitto, oh yeah,
(E nemmeno i dipendenti e i fornitori, oh yeah.)
Quelli che organizzano la manifestazione per la riapertura dei bar, oh yeah,
Quelli che partecipano alla manifestazione sotto minaccia di licenziamento, oh yeah.

Quelli che scrivono articoli contro lo smartworking stando in smartworking, oh yeah.
Quelli che lo smartworking è stare in panciolle sul divano tutto il giorno, oh yeah,
Quelli che se chiedi lo smartworking ti metto in CIG, oh yeah,
Quelli che in smartworking la gente lavora dal Sud e quindi fa crollare l'economia, oh yeah,
Quelli che lo smartworking fa male alla schiena, oh yeah,
Quelli che lo smartworking fa male alla pelle, oh yeah,
Quelli che lo smartworking fa male alla circonferenza vita, oh yeah,
Quelli che lo smartworking fa male alla vita sociale, oh yeah,
Quelli che in smartworking ti manca la compagnia dell'ufficio, oh yeah,
(e le tresche, e le pause caffé, e i pettegolezzi, e l'estetista in pausa pranzo,
eccetera, eccetera, eccetera)
Quelli che evidentemente in ufficio facevano tutto tranne che lavorare, oh yeah.

Quelli che i contagi avvengono soprattutto in famiglia, oh yeah,
Quelli che è colpa dei cinghiali, oh yeah,
Quelli che al supermercato non si è mai ammalato nessuno, oh yeah,
Quelli che i controlli in azienda sono spirito anti-imprenditoriale, oh yeah,
Quelli che mettiamo i braccialetti con l'allerta se i dipendenti si avvicinano a meno di un metro, oh yeah,
Quelli che non ci sono contagi sul posto di lavoro, oh yeah,
Quelli che quando ci sono contagi sul posto di lavoro non lo dicono per evitare le quarantene cautelative, oh yeah.

Quelli che col tracciamento potremo riaprire in sicurezza, oh yeah,
Quelli che non installano l'app di tracciamento perché il governo ci spia, oh yeah,
Quelli che ricevono le notifiche dalla Germania perché i codici sono condivisi, oh yeah,
Quelli che non ricevono le notifiche perché la regione ha un'app diversa dal resto d'Italia, oh yeah,
Quelli che non ricevono le notifiche perché l'ASP non aggiorna il database, oh yeah,
Quelli che ricevono le notifiche, ma l'ASP non ha personale e restano in quarantena per mesi, oh yeah.

Quelli che le scuole sono sicure, oh yeah,
(le stesse che cascano in testa ai bambini anche senza COVID, oh yeah)
Quelli che i banchi con le rotelle aiutano a matenere le distanze, oh yeah,
Quelli che è colpa delle scuole se poi non usano i banchi con le rotelle, oh yeah.
Quelli che se non apriamo le scuole, dove mettiamo i bambini mentre i genitori sono al lavoro, oh yeah,
Quelli che se sei in smartworking puoi tenerti il bambino a casa, oh yeah.
Quelli che la DAD fa schifo, bisogna riaprire le scuole, oh yeah,
Quelli che devono fare DAD comunque perché metà delle classi è in quarantena cautelativa e metà dei professori si è beccato il COVID, oh yeah.
Quelli che basta tenere le finestre aperte cinque minuti quando cambia la lezione, oh yeah,
Quelli che non aprire la finestra che c'è freddo, oh yeah.

Quelli che i bambini devono fare il tampone se manifestano sintomi influenzali, oh yeah
Quelli che se aspettano che l'ASP faccia il tampone al bambino devono tenerlo in casa un mese, oh yeah.
Quelli che propongono di fare tamponi a tutti gli studenti prima di entrare a scuola, oh yeah.
Quelli che non ci sono i reagenti per fare i tamponi, oh yeah,
Quelli che propongono di fare meno tamponi per avere meno casi, oh yeah,

Quelli che finalmente si lavano e disinfettano le mani, oh yeah,
Quelli che ma come mai la vendita di Imodium è crollata del 90%, oh yeah,
Quelli che disinfettano tutte le superfici, oh yeah,
Quelli che disinfettano le strade, oh yeah,
Quelli che disinfettano le spiagge, oh yeah.

Quelli che chiudiamo tutto e non usciamo di casa, oh yeah,
Quelli che escono di casa per andare al lavoro, oh yeah.
Quelli che escono di casa perché sono persone famose, oh yeah,
Quelli che possono uscire di casa per far passeggiare il cane, oh yeah,
Quelli che non possono uscire di casa per far passeggiare il bambino, oh yeah,
Quelli che fanno il frontale con le strade vuote, oh yeah,
Ed entrambe le macchine sono delle forze dell'ordine, oh yeah.
Quelli che fanno la multa al tizio che esce a comprare il vino ogni due ore, oh yeah,
Quelli che fanno la multa al tizio da solo in spiaggia, oh yeah,
Quelli che sorvegliano le spiagge con l'elicottero, oh yeah.

Quelli che è colpa dei runner, oh yeah,
Quelli che è colpa degli assembramenti all'aperto, oh yeah,
Quelli che è colpa degli assembramenti perché tutta l'Italia è Roma o Milano, oh yeah.
Quelli che scattano la foto col teleobiettivo per poter dare la colpa gli assembramenti, oh yeah.

Quelli che distanza minima di 1 metro, oh yeah,
Misurata dalla punta del naso alla punta del naso con le persone perfettamente immobili tutte a guardare nella stessa direzione, per farci entrare piú persone, oh yeah,
Quelli che capienza massima al 50%, oh yeah,
Quelli che stanno impaccati come sardine nella metro e sui bus per andare a scuola o in ufficio, oh yeah,
Quelli che passano 8 ore in ufficio col collega senza mascherina, oh yeah,
Quelli che però mettiamo il coprifuoco alle 18 se no la gente si contagia andando a fare la passeggiata, oh yeah,
Quelli che si oppongono al coprifuoco per difendere gli interessi dei ristoratori, oh yeah
(E fanno pressione per spostare il coprifuoco dopo cena cosí ci si può contagiare al ristorante, oh yeah)
Quelli che se torni a casa piú tardi devi avere lo scontrino per dimostrare di essere stato a ristorante, oh yeah.

Quelli che in Svezia non hanno tutte queste restrizioni ed i contagi sono bassissimi, oh yeah,
Quelli che non guardano a Norvegia, Danimarca e Finlandia dove i contagi sono un ordine di grandezza in meno, oh yeah,
Quelli che non possiamo chiudere troppo perché se no l'economia soffre, oh yeah,
Quelli che ma come mai la Svezia ha avuto la stessa perdita di PIL degli altri paesi scandinavi?

Quelli che al governo fermano tutto in tutta Italia, oh yeah,
Quelli che alla regione vogliono decidere se tenere aperto, oh yeah,
Quelli che al governo delegano alle regioni di decidere se aprire, oh yeah,
Quelli che alla regione dicono no, deve decidere il governo, oh yeah,
Quelli che decidono i criteri per le restrizioni ed i colori per rappresentarle, oh yeah,
Quelli che cambiano i criteri ogni settimana, oh yeah,
Quelli che taroccano i dati per allentare le restrizioni, oh yeah.

Quelli che sono nella regione rossa, oh yeah,
Quelli che sono nella regione arancione, oh yeah,
Quelli che sono nella regione arancione rinforzata, oh yeah,
Quelli che sono nella regione bianca e quindi aprono tutto per richiamare i turisti dalle altre regioni, oh yeah.
Quelli che la gente deve poter andare nella seconda casa anche in un'altra regione, anche se in zona rossa, oh yeah,
Quelli che però non puoi spostarti di comune nemmeno in zona arancione, oh yeah,
Quelli che non hanno la seconda casa, oh yeah.

Quelli che le decisioni seguono le direttive del CTS, oh yeah,
Quelli che al CTS non hanno mai dato quelle direttive, oh yeah,
Quelli che cambiano le direttive perché non piacciono a Confindustria, oh yeah.

Quelli che il virus è fatto in laboratorio a Wuhan, oh yeah,
Quelli che fanno finta di non sentire la domanda della rappresentante di Taiwan e poi le chiudono la chiamata, oh yeah
Quelli che la Cina tarocca i dati, oh yeah,
Quelli che la Florida non tarocca i dati, oh yeah,
Quelli che confrontano i dati di regioni con densità abitative completamente diverse, oh yeah,
Quelli che l'idrossiclorochina, la candeggina, l'antimalarica, l'antisifilitica, oh yeah,
Quelli che a Cuba che ne sanno di scienza, oh yeah,
E magari sono stati curati dai medici cubani in missione in Italia, oh yeah.
Quelli che le decisioni dell'OMS sono solo politiche, oh yeah,
E poi ti citano le decisioni dell'OMS quando fa loro comodo, oh yeah.

Quelli che il virus cinese, oh yeah,
Quelli che la variante inglese, oh yeah,
Quelli che la variante sudamericana, oh yeah,
Quelli che la variante africana, oh yeah,
Quelli che la variante indiana, oh yeah,
Quelli che l'immunità di gregge avviene anche col semplice contagio naturale, prima o poi, oh yeah.
Piú poi che prima, e chissà con quanti morti, ma oh yeah.

Quelli che i vaccini non arriveranno mai in tempo, oh yeah,
Quelli che i vaccini ce li abbiamo grazie al capitalismo, oh yeah,
Quelli che i vaccini ne avremmo di piú se non avessimo contrattato, oh yeah
Quelli che non riusciamo a usare le dosi che abbiamo perché la gente non viene a farsi vaccinare, oh yeah,
Quelli che i vaccini sono un complotto di BigPharma, oh yeah,
Quelli che i vaccini sono un complotto di Bill Gates, oh yeah,
Quelli che col vaccino ti iniettano il 5G, oh yeah.

Quelli che le primule presso cui vaccinarsi, oh yeah,
Quelli che vacciniamo per età, oh yeah,
Quelli che vacciniamo per categorie di rischio, oh yeah,
Quelli che le categorie di rischio le fanno decidere a Confindustria, oh yeah,
Quelli che telefonano al medico per farsi classificare come a rischio, oh yeah.
Quelli che riaprono le librerie perché sono le farmacie dell'anima, oh yeah
Quelli che vacciniamo i farmacisti, ma non i librai, oh yeah.

Quelli che AstraZeneca è pericoloso, oh yeah,
Quelli che ma come mai la gente rifiuta di vaccinarsi con AstraZeneca, oh yeah,
Quelli che SputnikV fa meno morti degli altri vaccini, oh yeah,
Quelli che controllano i dati di SputnikV e scoprono che è solo propaganda, oh yeah,
Quelli che scoprono che il virus vettore di SputnikV non è stato inattivato, oh yeah.

Quelli che il governo dei migliori, oh yeah,
Quelli che fanno cadere il governo dei migliori, oh yeah,
Quelli che appoggiano il governo di Confindustria, oh yeah.
Quelli che il Piano Nazionale di Ripresa e Resilienza, oh yeah,
Quelli che nel PNRR non mettono la ricerca, oh yeah,
Quelli che l'agenda digitale, l'economia green, però con tutti quanti in presenza in ufficio al centro, oh yeah.

Quelli che ne usciremo migliori, oh yeah.
Quelli che il rischio calcolato, oh yeah.
Quelli che tanto muiono solo i vecchi nelle RSA, oh yeah.
Quelli che tanto muiono solo i cardiopatici, oh yeah.
Quelli che la dittatura sanitaria, oh yeah.
Quelli che se non vuoi infettarti stattene a casa tu, oh yeah.

(E non me ne voglia Enzo Jannacci.)

Guido Bertolaso (clerihew)

Dicono di Guido Bertolaso
Che facesse le cose a caso
Gestí L'Aquila meglio di Amatrice
Ma la sua fine fu una massaggiatrice.


A A Asintomatica
Senza la mascherina
Com'è bello sognare
Abbracciato con te

A A Asintomatica
A due passi dal mare
Com'è dolce sentirti
Respirare con me

Dalle nari tue dolcissime
Un effluvio da infezione
Sentirò per tutto il tempo
Di questa

Quando il virus diffusissimo
Tornerà aggressivissimo
Questi giorni in riva al mar
Non potrò dimenticar

A A Asintomatica
Senza la mascherina
A due passi dal mare
Abbracciato con te

Dalle nari tue dolcissime
Un effluvio da infezione
Sentirò per tutto il tempo
Di questa

Quando il virus diffusissimo
Tornerà aggressivissimo
Questi giorni in riva al mar
Non potrò dimenticar

A A Asintomatica
Senza la mascherina
A due passi dal mare
Abbracciato con te
A A Asintomatica

(E non me ne vogliano Vianello e Rossi)

Io potrei … non dovrei … ma se vuoi …

Cosa fai, quando poi, resti sola?
Internet, come sai, non consola
Quando il virus arrivò, per esempio,
Trasformai la mia casa in un tempio
E da allora solo oggi non farnetico piú
A guarirmi chi fu?
Ho paura a dirti che sei tu
Ora noi siamo già più vicini
Io potrei, non dovrei, ma se vuoi

Come può uno stronzo
Arginare il male
Anche se non voglio
Torna già a girare
Per le strade vuote
E le aziende chiuse
Quarantene ardite
per le risalite
Verso i centomila
E poi giù in calata
E poi ancora in alto
Con un grande salto

Cosa fai, quando poi, resti sola?
Mascherine, tu lo sai, non si trovan
Io quel dì le trovai, ma per caso
Con i guanti al mercato quasi vuoto
Cucitrice nella stanza, mascherine per lei
Io la morte abbracciai
Ho paura a dirti che per te, le cucii
Oramai fra di noi solo un metro
Io potrei, non dovrei, ma se vuoi

Come può uno stronzo
Arginare il male
Anche se non voglio
Torna già a girare
Per le strade vuote
E le aziende chiuse
Quarantene ardite
per le risalite
Verso i centomila
E poi giù in calata
E poi ancora in alto
Con un grande salto

(Ispirato da questo twit. E non me ne vogliano Battisti e Mogol.)

Conte, partirò

Quando sono solo e sogno all'orizzonte mancan le persone
Sì lo so che non c'è gente in giro quando c'è il Corona
Se non ci sei tu con me, con me
Su l'internette
Mostro a tutti il mio cibo che vo mangiando
Chiusi dentro casa
La sanità
Mentale che ci abbandona

Conte, partirò
Che non ho mai
Voluto vedere, Conte,
Adesso visiterò
Conte, partirò
Le navi ed i voli
Che, io lo so,
No, no, non esistono più
Conte, io prenderò

Quando sei lontana e sogno all'orizzonte, mancan le persone
E io sì lo so che sei con me, con me
Tu mia luna, tu sei qui con me
Mio sole tu sei qui con me
Con me, con me, con me

Conte, partirò
Che non ho mai
Voluto vedere, Conte
Adesso visiterò
Conte, partirò
Le navi ed i voli
Che, io lo so,
No, no, non esistono più
Conte, io li prenderò
Conte, partirò
Le navi ed i voli
Che, io lo so,
No, no, non esistono più
Conte, io li prenderò
Conte, partirò

Io, Conte

(E non me ne voglia Bocelli)

A casa tua

Me ne andavo a piedi per la strada
Tossí qualcuno e un'ombra mi seguì
Un'infezione tutto il mondo sfida
E permanente stende un uomo con “eccí”

Nel cuore avevo un soffio trascurato
E due polmoni che credevo sani
Negli occhi la paura del domani
Quando vidi infine i risultati
La notte lui dormiva nel mio petto
Sentivo il mio respiro sempre men
Mi prenderei a calci se potessi
C'è ancora il suo sapore qui con me

Resta a casa tua
Ti chiamerò perché sto odiando queste mura
Anima mia
Nella stanza tua
C'è ancora un letto riservato all'ICU?

Avrei soltanto voglia di sapere (Non cercarmi)
Che fine ha fatto chi già s'è ammalato (Non toccarmi)
Se ha brividi di freddo per la febbre
E se può respirare oppure no

Resta a casa tua
Ti chiamerò perché sto odiando queste mura
Anima mia
Nella stanza tua
C'è ancora un letto riservato all'ICU?

Resta a casa tua
Ti chiamerò perché sto odiando queste mura
Anima mia
Nella stanza tua
C'è ancora un letto riservato all'ICU?

(Ispirato da una battuta su Spinoza
E non me ne vogliano i Cugini di Campagna)

L'importante è riaprire

siam chiusi qui
usciam poco di casa
solo per lavorare
e tuttavia

Ad un tratto mi sento d'improvviso malato
il respiro mi manca
e poi e poi e poi
e poi

Se riaccendo la TV
ci son dati del menga
stan morendo un po' tutti
ho deciso io mollo
ma non so se poi farlo o tornare al lavoro
l'importante è è
è riaprire

volto la faccia
questa è l'ultima volta che mi faccio fermare
e poi e poi

Han talento da grandi a cercare cavilli
a tirar delle scuse
e poi e poi e poi e poi e poi

Ci son capri espiatori
I vecchietti e le corse
Ricomincian da capo
Se mi manca il respiro
io non so se restare o tornare al lavoro
l'importante è è
è riaprire.

(Ispirato alla continua richiesta di riaprire le attività senza nessun accenno all'importanza della sicurezza di chi vi lavora —importanza finora trascurata e causa della drammatica situazione in certe regioni nonostante il lockdown attraverso il quale piú di metà dei lavoratori ha continuato —inconsciamente— a diffondere il contagio.

E non me vogliano gli autori.)

Nuovo Conio #8: omocondria

L'omofobia è una brutta bestia, ma è bene avere a disposizione altri termini per meglio catturare la varietà di forme e di gradi che l'antipatia all'omosessualità può assumere.

o|mo|con|drì|a s.f. NL stato psichico morboso prevalentemente nevrotico, che conduce a temere qualsiasi azione possa manifestare una (presunta o reale) omosessualità latente
chiave di ricerca: omocondria
o|mo|con|drì|a|co agg., s.m. NL che, chi è affetto da omocondria
chiave di ricerca: omocondriaco

(Anche in questo caso, non posso reclamare la partenità del termine, che mi arriva dal Twitter.)

Sciarada #3

Se del cavallo è la famiglia il primo
il secondo invece è in quella mia
ed il tutto infin la notte
ed il giorno rende uguali

equino / zio = equinozio

Sciarada #2

Frase doppia (8 3 5)


permessi per Messi

Sciarada #1

Il primo inver mi rassomiglia
il secondo al famoso dio bifronte
e il tutto si grattugia
su molti primi piatti.

parmi / Giano = parmigiano

Temporarily permanent

There's a famous saying that goes something like this:

Nothing is more permanent than the temporary.

In these days of quarantine and other “temporary” solutions that may not only have very long lasting effects, but may as well become permanent themselves, I've been trying to look for its source (for these kind of proverbs, possibly a hopeless task; but still) to quip and play around with it.

From ancient Greek?

An interesting hint comes from a poem by A. E. Stallings, titled After a Greek Proverb, that references the Greek:

Ουδέν μονιμότερον του προσωρινού

Now, this is modern Greek, as hinted by the monotonic ortography, but I wanted to go further back in time, rather than shifting regions.

I've thus spent some time trying to deconstruct the (modern) Greek proverb and “rebuild” a hypothetical Ancient Greek version.

The beginning is easy: Ουδέν didn't change much from Ancient Greek οὐδέν (neuter nominative signular of οὐδείς, and thus “nothing” as subject of the sentence).

Μονιμότερον is the (declensed) comparative of μόνιμος (steady, stable, fixed), just as in Ancient Greek. So far, so good.

The verb is missing, but that's acceptable in Ancient Greek as well, so the only remaining part is the comparative term, (declensed) προσωρινός, modern Greek for temporary, provisional.

Now, this is problematic because I can't find this term in any Ancient Greek dictionary, which leads me to suspect that they used a different term to express the concept. So I've asked this site to lend me a hand in the (reverse) search, that has led me to words such as πρόσκαιρος and ὑπόχρονος.

So I'm guessing the Ancient Greek version would be something like:

Οὐδέν μονιμότερον του ὑπόχρονου.

But does it even make sense to do it this way? Was it even a proverb in ancient times yet?

I've seen similar proverbs attributed to the Russian culture. I've read variants in the words of American economists talking about government action, and in the aphorisms of Italian journalists talking about social customs. Is it just a universal constant?

Read all over

I'm not a native English speaker and neither is my wife, but since we don't live in an English-speaking country and our kids are still too young, English is the language we use when we want to talk in front of them about things we don't want them to understand.

My English is also better than hers, so sometimes I do correct her, as I know it's appreciated. This is how my wife recently discovered that the simple past and past participle of «read» sound exactly like «red». I also took the opportunity to mention that this is the pun behind the riddle:

«What is black and white and red all over?»

To which she replied:

«A penguin.»

(The classic answer is actually «a newspaper», because it's black and white, and read all over.)

So my obvious reaction:

«What? What's red in a penguin? The beak?»

And she:

«Penguins are books


She got me. She got me good.

(To make things worse, the penguin answer is also horribly close to the anti-joke answer to the riddle: a badger in a blender.)

Numerazioni, ordinali e Wu Ming

I Wu Ming sono un gruppo di (attualmente) cinque autori che, nel far riferimento l'uno all'altro, vanno per numerazione: Wu Ming 1, Wu Ming 2, Wu Ming 3 (fuoriuscito), Wu Ming 4, Wu Ming 5.

Il problema dell'usare i numeri naturali per la loro denominazione è la mentalità umana e la sua tendenza all'ordinamento, sí che Wu Ming 1 verrebbe inevitabilmente primo, e Wu Ming 5 inevitabilmente ultimo.

Non conoscendo i dettagli cronografici della storia della formazione del gruppo (costola di Luther Blisset) né i ruoli dei suoi membri nelle attività del gruppo, non saprei dire se l'ordinamento abbia un suo valore (cronologico, volumetrico, o chissà che) o se sia invece possibile fonte di ambiguità all'interno di un gruppo che sarebbe altrimenti paritario.

Un problema simile è nato con la famosa proposta di sostituire i termini “padre” e “madre” con Genitore 1 e Genitore 2 nei moduli che sarebbe stati altrimenti discriminatori nei confronti delle coppie omosessuali: chi, infatti sarebbe stato il primo e chi il secondo genitore?

Per la questione dei genitori, era stato umoristicamente proposto in alcuni ambienti di usare piuttosto qualcosa come Genitore A e Genitore 1, sí che ambo i genitori fossero considerabili “ordinalmente primi”, seppur distinguibili.

Il giochino è interessante, ma fin dove si può portare? Ad esempio, se volessimo usare una strategia simile per i Wu Ming, potremmo trovare un numero sufficiente di distinzioni? Tipo: Wu Ming 1, Wu Ming A, Wu Ming α, Wu Ming I (che sarebbe il numerale romano, in questo contesto) … e poi? Mi manca un elemento, una serie usata tipicamente per le enumerazioni, da cui estrarre il primo elemento da assegnare al rimanente Wu Ming.


Giocare con le parole, con reminescenze da Sfiga all'OK corral. Anche, un sito, una pagina su FriendFeed ed infine il tag.

Qui raccoglierò le mie creazioni.

Manta Rei

Pesce d'acqua dolce che non nuota mai nello stesso fiume.

Religioni selettive

Fotti fotti, che Dio perdona Totti.

Towel May

Mese dedicato alla Guida Galattica per gli Autostoppisti.

Toner Day

Giorno in cui si cambiano le cartucce delle stampanti.

I Lupin meno conosciuti
Astenio Lupin

fratello minore del piú famoso Arsenio, ogni volta che prova a seguirlo in una delle sue rocambolesche avventure deve fermarsi dopo poco, senza fiato.

Astemio Lupin

aspirante ladro d'alto bordo, viene sempre scoperto quando gira per le sale durante i gala, nonostante i migliori travestimenti, essendo l'unico con in mano una coppa di acqua frizzante invece che di champagne.

Irpinio Lupin

un disastro.

Conoscenza perfetta

Vorrei aprire una nuova rubrica (o sezione), su matematica e dintorni. Ho anche già pronti un paio di argomenti da trattare (e in questa rubrica probabilmente migreranno anche altri contenuti già scritti), ma mi trovo davanti ad un insormontabile problema: il nome.

La principale difficoltà sta nel trovare un singolo termine, possibilmente d'impatto, che possa sintetizzare lo spirito della sezione. Potrei effettivamente chiamarla semplicemente ‘Matematica’, ma suona banale, persino riduttivo. Mi piacerebbe qualcosa di più ‘spinto’.

Il sottotitolo sarebbe, con la tipica modestia che caratterizza il pensiero matematico, «Conoscenza perfetta» (e sui perché e sui percome di questa scelta ne discuterò poi o nella sezione stessa o nelle riflessioni). Non è necessario che il nome sia sullo stesso tema, ma se lo fosse non mi dispiacerebbe.

Ovviamente, termini che indicano una conoscenza, e soprattutto una conoscenza perfetta, esistono un po' in tutte le lingue. Purtroppo, la maggior parte di questi termini ha un valore molto specifico di carattere mistico e/o religioso: comprensibilmente, d'altra parte, visto che la “vera conoscenza” è sempre stata prerogativa (presunta) dell'esoterismo, e benché la matematica rimanga (nuovamente) largamente esoterica, è anche vero che questa arte o disciplina che dir si voglia raramente ha avuto la pretesa di avere un risvolto essoterico che potesse ammaliare la gente (controesempio immediato viene certamente da Pitagora).

Mi trovo così con l'inusuale dubbio su quale religione saccheggiare, a quale pensiero rubare il termine, chi offendere con la mia perversione della parola per loro (probabilmente) sacra. Devo dire che non mi dispiacerebbe usare qualcosa come Gnosi o il sanscrito Jñāna. Ma forse sarebbe più opportuno abbandonare il misticismo, e riprendere possesso di un termine ingiustamente rubato dalla filosofia, come episteme?

E volendo invece restare sul mistico, non sarebbe forse meglio guardare proprio al già citato controesempio, alla scuola pitagorica? Potrei quindi cercare il termine tra quelli relativa all'armonia; o a rami specifici della matematica, indistinti ai tempi, come aritmetica o geometria. Eppure non so quanta ricchezza possa dare scavare tra le radici, magari nell'etimologia, tornando alla natura partitiva del numero.

Decisions, decisions, decisions.

Aggiornamento del 14 aprile 2013: alla fine ho deciso per mathesis, un filino meno scontato di matematica ed in uso corrente limitato (la Società italiana di scienze matematiche e fisiche e poco altro). E se mai mi venisse un'idea migliore, sarà sempre possibile spostare il tutto e sfruttare il buon vecchio HTTP response code 301 Moved Permanently.

La maestosa Etna

Ogni volta che l'Etna si risveglia e le foto della sua attività (fontane di lava, colonne di cenere con riflessi dal rosa all'arancione), c'è gente che si spertica in lodi per lo splendore di queste immagini, la “maestosità” dell'evento, della natura, del vulcano.

È gente che non ha mai avuto a che fare con i postumi dell'evento: tutta la cenere che viene espulsa nell'atmosfera prima o poi torna giú (e per fortuna, visto che quando non succede è anche peggio). E torna giú sui campi, in strada, sulle macchine, sulle case. Ed a seconda dei campi, delle strade, delle macchine, (dei tetti) delle case, il fastidio che crea può essere niente, poco, o molto.

Nei casi piú gravi, si può tranquillamente parlare di danni, come i vetri delle macchine sfondati in quel di Zafferana dagli sfoghi del mese scorso, con cenere piuttosto grossolana (e quindi anche piú pesante).

Ma anche chi non subisce direttamente danni (piú o meno gravi), si ritrova quanto meno a dover gestire le quantità non indifferenti di cenere che possono venir giú a coprire strade, balconi, cortili, terrazze: e se la cenere ha i suoi vantaggi “agricoli” (dà terreno ricco, fertile), rimane un immenso fastidio. Trovarsi a spazzare, se non addirittirua a spalare, è inevitabile, dopo questi sfoghi etnei: e bisogna pure sbrigarsi, nella stagione delle piogge, per evitare che l'acqua trasformi la cenere in fango ed otturi le grondaie.

Ed altrettando ovviamente, in periodi di vivace attività, andare a spalar via la cenere un giorno significa rischiare di dover tornare tre giorni dopo, quando l'Etna avrà regalato un nuovo contributo.

Quindi abbiate la pietà di ponderare le parole, nell'esprimere la vostra meraviglia davanti a quelle foto, o vi ritrovere un invito a venire a spalar cenere su 300m² di terrazza: anche un solo centimetro di spessore sono 3m³ (tremila litri) di cenere, che con la densità della genere significa facilmente 5 tonnellate (e passa) di materiale.

I mostri di Minecraft

Oggi mio figlio commenta, a proposito dei creeper di Minecraft: «non sono veramente dei mostri, è solo che si spaventano quando ti vedono».

(Per chi non avesse dimestichezza con il videogioco, i creeper sono uno dei principali “avversari” in Minecraft, e sono caratterizzati dalla loro tendenza ad esplodere quando in prossimità del giocatore.)

Al di là della discutibile accuratezza dell'osservazione (i creeper sono in realtà piuttosto aggressivi, correndo attivamente verso il giocatore quando lo vedono), ho trovato affascinante che già a sette anni mio figlio fosse in grado di dare questo tipo di interpretazioni dei dati (per quanto inesatti) a sua disposizione. Non siamo ancora all'homo homini lupus, ma siamo sulla buona strada: la natura che si protegge contro la minaccia umana.

Mi viene inevitabile domandarmi quanto sia una questione “educativa” (ce lo stiamo crescendo bene), e quanto semplicemente indole naturale, una certa capacità di inversione nell'interpretazione dei ruoli: non necessariamente il protagonista è il buono, non necessariamente chi vince ha ragione, non necessariamente l'aggressore è il colpevole. Anche se, sinceramente, questa sua capacità rasenta a volte livelli da psicopatia: stiamo parlando, dopo tutto, del bambino che a 3 anni con le Duplo costruiva i ponti con le trappole per far sí che l'Orco riuscisse finalmente a catturare e a mangiarsi i Tre Capri Rochi.

Le quattro stagioni venete di Vivaldi

Mio figlio chiede di ascoltare “L'inverno” dalle Quattro Stagioni di Vivaldi, mentre mette a posto la stanza, perché ormai è quasi inverno. Propongo allora di ascoltare prima “L'aututnno”, visto che siamo in autunno. Concorda. E aggiunge:

«So che “L'autunno” è una musica allegra perché c'è la bestemmia, il vino, …»

Deformazione professionale

Racconta Donald Ervin Knuth che da quando si è immerso nello studio della tipografia (per arrivare a produrre quei programmi che avrebbero rivoluzionato l'editoria scientifica, il TeX e il MetaFont) la sua attenzione ai dettagli tipografici ha raggiunto un livello tale da ridurre la sua capacità di lettura: la forma dei caratteri, la loro disposizione catturavano il suo interesse distraendolo dal messaggio che quelle lettere avrebbero dovuto convogliare:

The downside is that I’m too sensitive to things now. I can’t go to a restaurant and order food because I keep looking at the fonts on the menu. Five minutes later I realize that it’s also talking about food. If I had never thought about computer typesetting, I might have had a happier life in some ways.

Il lato negativo è che sono troppo sensibile a queste cose ora. Non possono andare al ristorante e ordinare cibo, perché continuo a guardare ai tipi di caratter del menu. Cinque minuti dopo mi accorgo che sta anche parlando di cibo. Se non avessi mai pensato alla tipografia informatica, avrei potuto avere una vita migliore, in qualche mod.

Questo tipo di meccanismo, che manifesta quella che potremmo dire una deformazione professionale (benché, tecnicamente, la professione di Knuth non fosse quella del tipografo), è diffusa e inevitabile: piaccia o meno, la nostra professione (se svolta con la dovuta competenza) influenza la nostra prospettiva, ed anche quando il nostro intento sarebbe di rilassarci, distrarci dalla stessa, questa nuova prospettiva continuerà ad influenzare il modo in cui vediamo il mondo, ed i pensieri e le domande che ci poniamo davanti a ciò a cui assistiamo.

È per questo, sospetto, che davanti alle immagini del disastro idrogeoogico che ha colpito Bitti in questi giorni il mio primo pensiero è stato: chissà se il nostro codice potrebbe simulare questo tipo di fenomeno. La perplessità è (certamente) “fredda e insesibile”, manca di emozione e coinvolgimento per il destino delle persone colpite dal disastro, ma non per questo sorprendente (e non voglio dire, anche se non voglio nemmeno negarlo, che la mancanza di sorpresa sia da collegare ad una mia mancanza di empatia nei confronti delle vittime).

Dopo tutto, uno dei cardini della mia professione è proprio la modellazione di flussi geofisici e la stima della loro pericolosità e corrispondente rischio: e benché il mio interesse primario al momento rimangono le colate di lava, il grande sogno della mia vita è quella di arrivare ad un codice numerico che possa affrontare con ugual capacità, accuratezza (e se possibile velocità di esecuzione) ogni tipologia di flusso, per tutte le applicazioni possibili. In questo, alluvioni, frane e colate di fango sono non meno importanti (come obiettivo modellistico) delle colate di lava e degli tsunami.

Ed a quanto possiamo vedere, ogni nuovo autuno ed ogni nuova primavera, l'interesse non dovrebbe essere puramente accademico: la possibilità di modellare questi fenonemi è essenziale per ottimizare pianificazione territoriale ed eventuali interventi di mitigazione sulle situazioni esistenti.

Verrebbe da chiedersi «perché non si fa, allora?», ma la vera domanda —che dovrebbe essere ormai stata brillantemente dimostrata dai comportamenti dei singoli come della collettività durante questa pandemia— dovrebbe essere piuttosto: se anche venisse fatto, cosa cambierà poi nella gestione delle cose?

E la triste risposta a questa domanda è: nulla. Perché al di là degli interessi di una (purtroppo ristretta) cerchia di studiosi, ricercatori e quella (anche qui, purtroppo piccola) parte della popolazione che ha la preveggenza di riflettere e ragionare sull'importanza di questo tipo di studî, di ricerche, e delle loro ricadute “sociali”, alla stragrande maggioranza delle persone —dal piú individualista dei privati con la loro casetta costruita in zona ad alto rischio al piú alto esponente governativo, passando per tutti i livelli del pubblico e del privato— non interessa nulla di quello che “potrebbe succedere” —salvo poi correre a pianger miseria quando le evitabilissime (con la dovuta pianificazione) ma disastrose conseguenze arrivano a colpire.

Il piccolo preferisce risparmiare piuttosto che investire sulla messa in sicurezza, il grande preferisce le opportunità di speculazione offerte dalla ricostruzione (ricordiamo l'esuberanza per il sisma in Abruzzo nel 2009), e chi dovrebbe custodire e sorvegliare preferisce evitare le responsabilità etico-morali dell'intervento a priori1 e fare poi il generoso con le elargizioni del caso a posteriori.

Alla fin fine, chiedersi se il proprio codice sarebbe in grado di simulare il fenomeno forse non è nemmeno la peggiore reazione possibile davanti al video del disastro. Per lo meno è orientato nella direzione giusta.

  1. supponiamo sia in corso un'eruzione, e che si possa prevedere con una certa accuratezza quali aree verranno invase e l'eventuale danno che questo possa arrecare; supponiamo altresí che si possa pianificare un intervento (barriere, distruzione degli argini etc) che permetta di deviare il flusso verso un'area diversa, con danno complessivo inferiore; il dilemma etico viene dal fatto che mentre il danno causato dalla colata senza intervento umano non ha responsabili, nel secondo caso la responsabilità del danno arrecato dopo la deviazione cade su chi intraprende l'azione mitigatrice. ↩

Multibase Dienes

Diciamocelo, i blochi multibase “Dienes” sono solo costruzioni camuffate da sistema educativo per la matematica. O viceversa.

Sono un nostalgico. Una delle cose che ho sempre vissuto male del passare del tempo e del mutare delle cose è stata l'unicità (anche solo generazionale) delle mie esperienze, il fatto che i miei figli non avrebbero potuto conoscere le stesse persone, vedere gli stessi posti, vivere le stesse esperienze: non perché sia mai stata mia intenzione “costringerli” a ripetere la mia vita, quanto perché mi sembrava che poter loro offire “almeno questo” fosse, in qualche senso, un “minimo insindacabile”. Ed il fatto che le persone invecchiano, i luoghi cambiano (e quasi sempre in peggio), e che certi momenti storici (nel bene e nel male) sono (almeno nell'arco della nostra vita cosciente1) unici mi ha sempre creato una certa angoscia. I miei figli non conosceranno certe persone, non potranno esperire certi luoghi, certi contesti, all'apice del loro splendore. (Ne avranno alti, i loro, mi auguro; ma perché non anche quelli di cui ho potuto godere io?)

Sono un nostalgico, dicevo. Quando e dove possibile, cerco di dare ai miei figli almeno quello che ho avuto io (a volte, purtroppo, nel male come nel bene). E (vista anche la loro età, al momento) questo si manifesta spesso nella ricerca per i giochi ed i giocattoli della mia infanzia, come le costruzioni INCAS della GiavToys (è stata una grande gioia per me scoprire che li fabbricano ancora). Mia madre mi ha sorpreso qualche Natale fo ripescando dai meandri di chissà dove quel che rimane delle mie vecchie INCAS: ho pianto come un vitello2 per tutto il pomeriggio.

Sono un nostalgico, per l'appunto, e per qualche motivo mi sono venuti in mente recentemente quelli che ero sicuro fossero blocchi appartenenti ad uno dei tanti giochi didattici con cui mi hanno cresciuto i miei genitori: blocchi, “fette” e “aste” di varie dimensioni, con ben visibili suddivisioni a cubetti.

È stato sorprendentemente difficile trovare il nome di questi “giocattoli educativi”: multibase. Poi a complicare la ricerca ci si sono messe la polisemia del termine, ed il suo uso come nome di alcune compagnie in Regno Unito ed India. Ed infine, il fatto che la mia memoria di aste e basi di varie dimensioni si scontrava con la preponderanza delle confezioni limitate alla base 10: perché, allora, chiamarli multibase?

Alla fine ho trovato su Borgione (e dove se no?) una confezione non troppo dissimile da quella della mia memoria. Oggi finalmente è arrivata; non è quella della mia memoria, i blocchi sono meno rifiniti di quelli della mia memoria, ed i pezzi multipli (aste, basi e blocchi che siano) hanno suddivisioni tracciate con il colore e non incise come in quelli della memoria. Ma sono comunque loro, e sono stato ben contento di poterci tornare a giocare con i miei figli.

Giocare? Sí, giocare. È vero, la loro funzione dovrebbe essere diversa (imparare le quattro operazioni; chiave di ricerca utile, per chi fosse interessato, è BAM: Blocchi Aritmetici Multibase, per aiutare nella disambiguazione; il metodo è anche noto come metodo Dienes, dal matematico che l'ha sviluppato, partendo dall'idea delle perle colorate delle potenze del metodo Montessori.) Ma chi può resistere alla tentazione di usarle come costruzioni?

  1. ricordiamo le riflessioni sulla ciclicità del tempo nel film porno romanzo filosofico L'insostenibile leggerezza dell'essere. ↩

  2. direi anche per la stazza, ma ho recentemente scoperto che questo modo di dire è solo una perversione del detto originario che aveva come (s)oggetto “una vite tagliata”. ↩

L'invidia del pattino (Men don't skate)

Qualche mese fa mia moglie ha procurato dei pattini in linea per bambini piccoli (della Chicco, per intenderci), di seconda mano. La cosa ha suscitato un certo interesse in entrambi i nostri bambini, portando persino a qualche conflitto sul loro utilizzo.

Ho deciso cosí di ripescare da chissà dove1 i pattini (classici, quad) su cui ho imparato a pattinare io da piccolo: classici pattini senza scarpa, regolabili, semplici nei colori (tutto nero, tranne una tacca gialla sulla fibbia) e senza pretese.

Tutto questo darsi da fare per introdurre i miei figli al pattinaggio mi ha sinceramente fatto venire voglia di riprendere a pattinare anch'io, ed in attesa di procurarmi un paio di pattini piú adatti alle mie nuove misure (di piede e di peso) sono persino riuscito a provare (non senza qualche difficoltà) i miei vecchi pattini: nonostante la misura troppo piccola (massimo credo arrivino a 41/42, io prendo facilmente un 43/44) sono riuscito a barcamenarmi senza troppe difficoltà (e nemmeno una caduta): sembrerebbe che pattinare sia come andare in bici, una volta imparato non si scorda mai.

È partita a questo punto la ricerca per un paio di pattini adatti alla mia persona, ed è qui venuta la sconvolgente scoperta: il pattinaggio maschile adulto “non esiste”.

O piuttosto, non è che non esista, quanto sembra essere migrato sostanzialmente sui pattini in linea, i rollerblade (la povera compagnia non è riuscita ad evitare, almeno da noi, la generalizzazione del nome, come è stato per lo scotch, pardon, il nastro adesivo): perché non piú i pattini classici?

(Peraltro io avevo anche un paio di rollerblade (forse addirittura nel senso della marca), ma non sono piú riuscito a ritrovarli2.)

Voglio dire: non mi sembra di avere chissà quali pretese: un paio di pattini classici da strada, “quad”, di colori “tranquilli” (niente di sgargiante o fosforescente), e della misura giusta. Diamine, mi accontenterei persino di quelli regolabili, senza scarpa, purché arrivino al 44.

Ed invece no: si trovano facilmente pattini per bambini, si trovano relativamente facilmente pattini femminili da pattinaggio artistico (orrendi colori sgargianti, spesso con tacchetto (!)), si trovano pattini per Roller Derby, ma generalmente con taglie ridotte (fino al 42); altrimenti, solo rollerblade (pardon, pattini in linea). Si trovano con un po' piú di facilità pattini professionisti (spesso orientati specificamente a questo o quello sport), ma con fasce di prezzo che partono dal triplo dei pattini amatoriali: sinceramente, per andare ogni tanto a tener compagnia ai miei figli, il prezzo diventa esagerato.

(In tutto questo ho scoperto alcune cose interessanti, come per esempio il succitato Roller Derby, nato come sport unisex (se non prevalentemente maschile), con picco di fama intorno tra gli anni 60 e70, e poi caduto nel dimenticatoio fino alla sua rinascita come sport prevalentemente femminile all'inizio del nuovo millennio.)

Rimane però il problema di dove trovare pattini adatti a me: nei negozi non si trovano, ed online sono riuscito a trovare solo due pezzi, con la scelta tra ruote di colori sgargianti o scarpe di dubbio gusto estetico. E sinceramente l'idea di comprare un paio di scarpe (perché a parte le ruote, di questo si tratta) senza provarle non mi fa impazzire; anche perché non dovessero andar bene, non c'è molto con cui cambiarle.

(Ma perché non i rollerblade? Perché il nuovo basolato del mio cortile ha scanalature piuttosto larghe, e sono abbastanza sicuro che le ruote dei pattini in riga vi rimarrebbero incastrati.)

E quindi mi trovo cosí, nel dubbio sul cosa fare, perché sono un uomo adulto e quindi, a quanto pare, fuori mercato: gli uomini non pattinano.

  1. il deposito di roba vecchia ed ancora da sistemare che ha la mia sorella maggiore; come c'erano finiti? ↩

  2. in questo caso, a quanto pare, il deposito di roba vecchia di alcuna delle mie sorelle è riuscito a venirmi incontro. ↩

Minetest e(`) le droghe
γνῶθι σαυτόν
conosci te stesso
Massima delfica

Mi conosco abbastanza bene da sapere che ci sono cose che per me è meglio evitare, perché hanno la tendenza a catturarmi piú del dovuto. Come un alcolista sa (almeno razionalmente) che per lui è meglio stare lontano da vino, birra e liquori, per non rischiare di perdere (nuovamente e drammaticamente) il controllo, cosí io so di dover star lontano (anche se meno drammaticamente) da certi videogiochi.

Minetest è uno di questi.

Minetest rientra nella categoria dei “voxel games”, videogiochi ambientati in un mondo costruito da blocchi con cui il giocatore può interagire scavando, distruggendo e costruendo, genere che ha come capostipite Infiniminer, e come esponente piú famoso Minecraft.

Minetest non nasce come videogioco a sé stante, ma come motore su cui costruire giochi, anche se offre anche un videogioco (MTG: Minetest The Game) come esempio delle proprie funzionalità. Caratteristica fondamentale di Minetest è quindi l'estensibilità: è relativamente semplice costruire moduli supplementari con cui aggiungere tipi di blocchi, nuovi oggetti da costruire, o piú in generale modificare specifici aspetti del motore e dei giochi su di esso costruiti.

Già il meccanismo di base è particolarmente affascinante, per chi ha interesse per queste cose: con la possibilità di alterare profondamente il mondo circostante, e di costruire in piena fantasia e libertà, il gioco (anche il piú semplice MTG) cattura l'attenzione di chi ha passione per le costruzioni. Se a questo si aggiunge la possibilità di andare oltre i limiti esistenti anche dal punto di vista informatico, non è difficile capire come si possa cadere in un pozzo senza fondo di distrazione dalla realtà.

Per questo lo evito. O quanto meno ho cercato, a lungo, di evitarlo, pur avendo in passato persino contribuito al suo sviluppo.

Il problema, come sempre, sono i figli. Mio figlio va a scuola, ed i suoi compagni giocano a Minecraft.

Ho fatto il possibile per ritardare, mantenere sull'astratto la discussione, ma alla fine era inevitabile che succedesse. Gli ho fatto vedere Minetest, abbiamo anche avviato una partita (a cui per ora lui e la sorellina assistono solo da spettatori, benché io sia ben cosciente che presto vorranno avere una partecipazione piú attiva).

Ed ora ci sono regole ferree sulle condizioni alle quali si può fare una mezz'oretta di Minetest: tutti i compiti finiti, tutti i lavori di casa finiti, già pronti per andare a letto etc. Condizioni che —non dovranno mai saperlo— sono piú per loro che per me. Perché diciamocelo chiaro: per me ci potremmo passare le giornate, a giocare a Minetest. Insieme, persino. Ma so che non è una cosa che farebbe bene a loro, né a me.

E quindi le regole.

Ed io, lo confesso, non sempre le seguo, per me stesso, soprattutto quelle sulla durata: mi sono fatto un altro mondo su cui sperimentare per conto mio, un mondo a cui mi costringo a giocare solo quando non ho altri impegni, solo la sera, quando si è ormai a letto per dormire. Ma è cosí che ho ripreso ad andare a dormire dopo l'una. E non va bene.

Insegnate a giocare a Go

Ho insegnato le regole del Go a mio figlio quando aveva non piú di quattro anni. Provammo anche a fare una partita all'epoca, senza particolare successo. Qualche giorno fa, settenne, è venuto lui a propormi di giocare. Abbiamo fatto una partita completa (senza handicap, e s'è visto, ma nessuno si aspettava da meno), ed è stata un'ottima occasione per illustrare sul campo alcuni aspetti fondamentali del gioco che dalle regole discendono.

Insegnate a giocare a Go alla vostra discendenza: le regole sono estremamente semplici, di immediata comprensione e memorizzazione, eppure nascondono una straordinaria complessità strategica e tattica —complessità che rimane però estremamente accessibile anche alle menti piú giovani.

† UNICODE 2020 †

Dopo gli attentati dell'11 settembre 2001 una delle piú … sorprendenti teorie complottiste che emersero fu quella che riguardava Wingdings, un tipo di carattere “simbolico” sviluppato dalla Microsoft nel 1990.

Il principale problema della bufala del Wingdings è che la sequenza di caratteri necessari per rappresentare “simbolicamente” l'aereo e le torri gemelle non aveva in realtà nessun nesso con i voli coinvolti nell'attentato.

Gli inizi alquanto burrascosi di questo anno (2020) ci portano invece a del materiale molto piú genuino.

Ricordiamo che il 2020 è cominciado con la coda degli incendi in Australia, seguita da pesanti alluvioni sul medesimo continente, per passare poi, ciliegina sulla torta, alla pandemia da coronavirus, che promette (minaccia?) di ottenere quello che non fu ottenuto né dalla precedente SARS né dall'intermedia suina.

Che cosa rende il tutto particolarmente affascinante, e perché è rilevante la bufala del Wingdings? Perché il carattere Unicode U+2020 è l'obelisco, il carattere tipografico a forma di croce: †

† 2020 †

Ovviamente anche questa volta dobbiamo imbrogliare un po': i caratteri Unicode sono indicizzati in esadecimale, quindi U+2020 è in realtà l'8224mo (decimale). Per contro, il 2020mo sarebbe U+07E4: ߤ, descritto nello standard come NKO LETTER HA (se non lo sapevate, scoprite cosí l'esistenza dell'Alfabeto N'Ko).

Ma per fare del sano complottosimo, questa piccola forzatura mi sembra il minimo (d'altra parte, sarebbe stato troppo semplice altrimenti, e quindi meno credibile).

Stendiamo un velo pietoso
E sia pietosa coltrice l’onda spumosa e ria
Belgrado Petrini, Schiavi (1967)

È questo un verso della poesia Schiavi di Belgrado Petrini, composta durante la reclusione scontata dall'anarchico negli anni del dopoguerra.

La poesia è famosa soprattutto nella sua versione rimaneggiata e musicata (sul tema della canzone popolare romana Se tu ti fai monaca) da Paola Nicolazzi, con il titolo Il galeone.

Con tutto il rispetto che si possa portare a Paola Nicolazzi c'è però una cosa che mi dà un immenso fastidio nella sua versione: l'accento sbagliato sulla parola coltrice (cantata coltríce invece del corretto cóltrice). E sí, non mi sfugge l'ironia di fare il grammar nazi su una canzone anarchica.

Ma ancor peggio dell'errore di Paola Nicolazzi c'è il fatto che molti di coloro che si sono cimentati con il brano hanno pedissequamente seguito l'errore dell'autrice.

Non è peraltro nemmeno possibile addurre la metrica come scusa, giacché è perfettamente possibile cantare il verso con l'accento corretto e senza nessuna forzatura; invero, a dimostrarlo, esiste almeno una dozzina di versioni in cui la parola è pronunciata correttamente, tra cui quelle di Cinzia La Fauci, Mara Redeghieri, Rocco Rosignoli, Révolte Ensemble, Cesare Basile1, All Middle Fingers Up, Storie d'alabastro e d'anarchia, Montelupo2, Anonima coristi, Friser, Gli Impopolari, La leggera, Acoustic Vibes (?), Voci di mezzo (?), Giovanna Marini, ed un'illustre sconosciuta.

(Una menzione speciale merita la versione dei Surgery, in cui riescono a piazzare nella parola entrambi gli accenti, sicché non si capisce se la pronunciano correttamente o meno.)

Queste versioni (con l'eccezione di quella di Giovanna Marini, in cui il verso corrispondente manca del tutto) hanno però un altro difetto: nel verso

spezziam queste carene, o chini a remar morremo

la parola carene è sostituta da catene. Questo non solo fa perdere un importante nesso con i versi che seguono, in cui l'autore incita a mandare la nave sugli scogli, ma stravolge anche profondamente il senso della canzone: spezzare le catene è un semplice invito a conquistare la libertà, ma nella metafora dell'autore sono le carene a dover essere distrutte, ovvero il galeone stesso, che altro non è che (fuor di metafora) la società stessa.

Cantare «catene» invece di «carene» “smonta” il valore anarchico della canzone.

Verrebbe da chiedersi da dove nasca questa interpolazione, visto che la versione della Nicolazzi dice ben chiaramente carene, cosí come il testo della poesia originale del Pedrini, fugando ogni dubbio che possa trattarsi di un errore (come l'accento errato in «coltrice»). A peggiorare le cose, esistono parecchie versioni in cui sono sbagliati entrambi: l'accento su «coltrice» ed il termine «catene» invece di «carene». Mentre per il primo errore è assodata la responsabilità di Paola Nicolazzi, per il secondo sospetto una (co)responsabilità del sito AntiWarSongs, che riporta il testo errato.

È stato infine con immensa gioia che sono riuscito a trovare una versione giusta della canzone, in cui si invita a spezzare le carene, e «coltrice» è pronunciata correttamente: quella di Marco Rovelli dal vivo con l'accompagnamento di Lara Vecoli. Posso risparmiarvi la tortura di sentire me che canto solo per donare all'universo una versione corretta della canzone.

  1. che però l'ha anche cantata con l'accento sbagliato. ↩

  2. anche se sembra che dica «morir tra i frutti». ↩


Il Clerihew è una filastrocca in quattro versi con rima AABB e metrica libera, generalmente a tema biografico o pseudo-biografico (i.e. con fatti inventati). È richiesto che il primo verso contenga (e preferibilmente finisca con) il nome del soggetto.

L'ho scoperto recentemente su Twitter, ed ho deciso di cimentarmici, trasformando un mio precedente tenativo.

I risultati del mio lavoro si possono apprezzare qui.

Webcomics and the long strip format


I've been reading webcomics for decades. I've seen them be born, flourish, be abandoned, decay, make it to print form, disappear from the 'net, win awards and be forgotten. And I've seen them change format.

For a long time, webcomics were published in formats not unlike those found in print. Some, especially those striving for daily updates, follow the daily strip format, with a certain (fixed or variable) number of panels in a row; others took advantage of the greater liberty the web gives, by using “sunday-style” multi-row paneling, sometimes with a side-joke near the title. More artistically ambitious projects went for the “full-page” comic, with print-page tables paced either to manage to squeeze at least one joke per page, or going full graphic novel.

Recent times, however, have seen the emergence and spread of the “long-strip” format, obviously designed for mobile consumption, or at the very least for a visualization on screens in a portrait orientation rather than the classical desktop landscape orientation.

While quite convinced that its first solid foothold was in the Far East (Japan and South Korea at least), most likely due to the earlier spread of mobile web consumption over there compared to the West, and while today it has undoubtedly gained widespread adoption globally, I'm not entirely sure where the long-strip format originated.

In fact, my first encounter with an infinite canvas experiment was Nine planets without intelligent life, followed by the Wormworld saga. Only much later I realized how widespread this was elsewhere (see e.g. the relevant tag on Mangadex), and noticed it becoming widely adopted “on the Western front”, as testified by the vast number of long-strip format webcomics present on WEBTOON, but also by more professional products such as Pepper & Carrot (a permissively licensed humorous graphic novel by a French artist passionate about the free-software and free-culture philosophies, David Revoy), or even The Resistance, written by Straczynski and illustrated by Mike Deodato Jr..

Why the long strip?

I see the long strip as the evolution of the episodic single-page webcomic. To show why, let me first discuss briefly how the choice of format for (web)comics correlates with narrative choices.

The “daily strip” format, for example, is usually matched with “a joke a day” content: each strip is self-contained (even when part of a longer narrative arc), and must provide an end-of-strip conclusive or pausing effect (e.g. the punchline in a humorous comic).

The full-page format is usually used in one of two ways: one is similar to the daily strip format, but with more room for content; the other is the graphic novel narrative style.

Full-page “dailies” (or, more frequently, “weeklies”) must still achieve the conclusive or “pausing” effect, at the end of the page (instead of strip). The larger visual estate available allows for more sophisticated set-ups, and can better tie-in pages belonging to the same, longer narrative arc, but the pacing is still board-based.

A narrative style matching that of a graphic novel is also possible with full-page releases. In this case, page-based pacing is not necessary (although it can still help keep the reader's attention), but as a counterpoint the reading experience can become fragmented with slow releases. In this case, some authors may opt for a different release schedule: rather than releasing (or trying to release) individual pages at the given schedule, they choose to release full episodes (spanning several pages) at once (obviously on a less frequent schedule), providing the reader with a more consistent reading experience, at the cost of reduced “engagement” (buzzword du jour), which is sometimes recouped by posting sketches or other complementary material on a more frequent basis.

But then again, what is even the point of restricting oneself to the “printed page” format when the release schedule is episodic and the target is online publishing? This is where the long strip comes in handy: it gives greater artistic freedom, it's quite easy to navigate (scrolling) even (or maybe especially) on mobile, and it allows a fuller utilization of the visual estate (again, particularly on mobile).

Ups and downs

There are a few downsides to the long-strip format.

First of all, subsequent print publication may require some restructuring (unless the continuous strip was designed with this in mind from the start, with sacrificial filling in strategic places). This, of course, is not a downside if the material is never supposed to leave the web as medium.

Obviously, two-page spreads are simply impossible on a long strip, although wider solution are possible (and used), with single panes placed sidewise compared to the standard reading direction.

Finally, there is a lack of fractional addressing: when reading a page-based episode release, it's possible to use standard browsing features to e.g. bookmark a specific page, while this is impossible (or at least much harder) for continuous canvas releases (although publishing websites may provide more fine-grained bookmarking solutions of their own).

With episodic releases, the time between one release and the next can be significant, and it may be helpful to provide the readers with a reminder of what was going on. With page-based content, the reader can simply go back a few pages to make sure they connect with their last reading point, but with the long-strip format this becomes cumbersome, due to the just mentioned reduced granularity in content addressing.

On the other hand, the long-strip format provides a natural, seamless way to integrated callbacks into the first lengths of the episode (frequently, this is provided before the logo/title), similar to the callback page(s) found in multi-volume (printed) serial publications, or to the «Previously, on [title]» introductions sometimes used in organic TV series.

In this way, providing appropriate recaps becomes now the author's responsibility (as opposed to the reader's choice), and when reading through old published episodes in one sitting the recap itself may actually break the narrative flow for the reader. On the upside, the author-controlled recap can provide more appropriate references to previous material, compared to simply going back a couple of pages, especially with very intricate storylines.

Filling with style

I would group the drawing style for the long-strip format in two categories.

The first one, that I've only come across in Western comics (examples: The Wormworld saga and The Resistance), takes full advantage of the entire canvas width, and while there is still a panel structure, it's frequently overlaid and/or intermixed with full, colorful backgrounds or full-width, border-less and junction-less scenes.

By contrast, the style more frequently adopted in Eastern comics (and may Western comics that imitate the style) presents a more sparse and empty layout, with single panels covering a sizeable percentage of the canvas, but not all of it, and abundant blank space between them. The extra space can still serve a purpose, such as by hosting the speech and thought bubbles without covering the scene, or by providing chromatic hints to narrative changes (present time versus flashback, reality versus dream, pauses and scene changes, etc).

(A third category could be reserved for webcomics that, while using episode-long canvases, maintain an internal page-wise structure, and are thus effectively equivalent of page-based comics, although presented on a continuous canvas with pages on top of each other and with no observable discontinuity; Pepper & Carrot falls in this category, which is quite obviously aimed at providing easier conversion to print format.)

Aside: not the only option

Infinite canvas (either as in the experimental NPWIL, or in the long-strip format discussed so far) has become the common way to exploit the freedom allowed by electronic consumption over classic paper, but it's not the only one. Other common ways to extend/expand the “reading experience” include complementary multimedia (such as soundtracks, as seen and heard in Always Human) or small animations (sometimes limited to single panels, as seen in Questionable Content (list), sometimes used more aggressively, such as in Shiloh).

One of the most (technically) astounding experiments in this regard is most definitely To Be Continued, an Italian (also available in English) science-fiction graphic novel about teenage superheroes, their daily struggles in the shadow of the older generations, and their surprising destiny. The visual format is 16:9 landscape, and while most episodes are essentially “paged”, with standard navigation (left/right keys or mouse clicks), some take advantage of (not-really) linear scrolling to provide something closer to the infinite canvas experience, frequently with a “non-uniform” scrolling direction (with junction-free panels spread out on a convoluted path).


As an avid reader of visual content (comics and graphics novels), I can't call myself a big fan of the long strip format. While it does make (arguably) better use of the flexibility allowed by the new (compared to print) medium, I find most of the production uncomfortable to read on my favorite hardware platform, the laptop.

This shouldn't be surprising, since the new design is quite obviously geared towards other means of consumption (primarily, smartphones —to the point that when reading e.g. The Resistance on a landscape screen you can clear read the advisory: «For the best reading experience view this comic on a mobile device.»), but it is quite annoying.

On the one hand, reading this content on the desktop results in a massive under-usage of the screen estate (contrary to one of the possible advantages of the infinite canvas), or requires impractical tricks (such as putting a laptop on the side and rotate the screen contents). On the other hand, even the mobile phone with the crisper display remains immensely more tiring for my eyes than any moderate-to-high quality laptop display, even for content designed to be consumed on such a tiny display.

I'm not sure what the best solution would be, or even if there is one. Maybe some kind of adaptive panel placement, that can take advantage of wider screens just as well as long and thin ones? Or maybe just spending less time reading webcomics?

Decenni dopo

È incredibile notare la differenza di qualità tra Panda kopanda (1972) e Totoro (1988), ed ancor piú tra Il circo sotto la pioggia (1973) e Ponyo (2008).

Sia ben chiaro che non parlo delle capacità dei rispettivi registi: anche se è vero che gli antecedenti in questi confronti sono di Isao Takahata, mentre i conseguenti sono di Hayao Miyazaki, non trovo affatto che il primo sia inferiore al secondo, e non è a questo che mira il confronto.

Peraltro, lo spunto nasce dagli evidenti paralleli —chissà, forse persino gli intenzionali richiami: tra Totoro ed il papà Panda1, tra l'allagemento nel Circo e quello in Ponyo. Paralleli che non possono sorprendere, vista la grande amicizia tra i due artisti, e la stretta collaborazione che ha segnato gran parte della loro produzione (d'altronde, i due mediometraggi degli anni '70 sono essi stessi frutti di questa attiva collaborazione, essendo il soggetto e le sceneggiature di Miyazaki).

Alla base della differenza vedrei piuttosto la crescita artistica (e, diciamocelo, anche economica) che i fondatori dello Studio Ghibli hanno avuto la capcacità (e la fortuna) di sviluppare nei decenni trascorsi dagli anni '70.

Per gli amanti dello Studio, Panda ed il suo sequel non hanno moltissimo da offrire, dal punto di vista artistico. Vuoi per la fretta (per cavalcare l'onda della passione per i panda nata in Giappone in quel periodo), vuoi per la penuria di mezzi (eh sí, l'aspetto economico non può essere trascurato), vuoi per l'ancora mancante contributo di Kazuo Oga (che sarà poi determinante in gran parte delle opere Ghibli, a partire proprio da Totoro), la realizzazione lascia molto a desiderare, con colori piatti ed animazioni poco fluide e spesso limitata ai personaggi principali.

D'altronde, si tratta di due mezz'orette senza impegno —foss'anche solo per completezza— godibili soprattutto se passate in compagnia del pubblico adeguato (sono mediometraggi decisamente per bambini2).

  1. ancor piú se si pensa che nel progetto originale di Totoro la protagonista era una singola ragazza, poi “sdoppiata” nelle due sorelle Satsuki e Mei. ↩

  2. a patto, però, che non siano bambini troppo facili allo spavento: con i miei non sono mancati gli «ho paura, ho paura» nelle scene di “tensione” che anche queste animazioni riescono a regalare. ↩


The game got started by Pénélope Bagieu on Twitter, and it's very simple: draw your ideal environment for your quarantine, based on a template provided by acupoftim.

The results are impressive, even though for the time being the initiative has been picked up mostly by French or French-speaking artists.

I'm really not good at drawing, therefore my contribution so far has only been to make a vector (SVG) version of the the template:

On Christopher Tolkien

Christopher JR Tolkien has died. This is a sad moment, but as we say in Italy, «no wedding without tears, no funeral without laughter.»

And I found myself thinking, as a joke: look at the difference between university magnateship (or, as we say in Italy, baronage) between Italy and the UK.

What does a university baron in Italy do to ensure that their offspring inherits their position? They play all kind of dirty tricks. They coopt their group into adding the offspring's name as co-author of their research papers. They pull in favors to ensure that the commissions for calls and exams evaluate their offspring more favorably.

What does a univeristy baron in the UK do to ensure that their offspring inherits their position? They gather all the mythos of the literature of lore, create a fantasy world, publish several novels on it, and leave around enough material to guarantee a prosperous legacy for the offsprings, as curator of the material and with enough arguments for literaly criticism that the offspring can build their own career on top of it.

The mathematical anarchist

Apparently graffiti things such as this and this have appeared in Bruxelles (and who knows where else).

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

I must say it's not too common seeing mathematical graffiti, so let's have a look at them a little bit closer. Let's start with a transcription:

f(x) = 2+ -(x-2)2 + 1 g(x) = 2- -(x-2)2 + 1 h(x) = 3x-3 i(x) = -3x+9 j(x) = 0,2x+1,7

There's a few things I don't like about some choices made (such as the choice of decimal separator —which could be avoided altogether, as we'll see later), but let's first try to understand what we have, as-is.

What we're looking at is the definition of five distinct functions of a single variables. One of the nice things about real-valued functions of real-valued variables (which is the assumption we make here) is that, thanks to the brilliant intuition of Réne Descartes to associate algebra and geometry, we can visualize these functions.

Thus, another way to look at this is that we have an algebraic description of five curves. The obvious implication here would be that, if we were to plot these curves, we'd get another picture, the actual, hidden, graffiti.

Can we reason about the functions to get an idea about what to expect from the visualization? Indeed, we can.

The quadric

For example, the functions f and g are obviously closely related, as they differ just for the sign of radical. We can thus expect them to be the two possible solution for a second-order equation, which we're going to discover soon. Additionally, the form these functions have also give as a domain of existence: since the argument to the radical must be non-negative for the functions to have real values (and thus be plottable), we must have


that is


which would more commonly written as


whose solution is




Now we know that, for the functions f and g to exist, x must be in the interval between 1 and 3. Since the other functions do not have restrictions on the domain of existence, we can take this as domain for the whole plot.

The next step is to find out what are f and g the two halves of. To do this, we can “combine” them using y as placeholder for either, and writing:


which can be rearranged to


Since we're taking both the positive and negative solutions for the square root, we can square both sides without worrying about introducing spurious solutions, obtaining:


which we can again rearrange to get


This is the equation of a circle, centered at the point with coordinates (2,2), and with radius 1. f represents the upper half, g the lower half.

The circle represented by the first two equations

The circle represented by the first two equations

The lines

The next three functions (h, i, j) are much simpler, and anybody that remembers their analytical geometry from high school should recognize them for the equations of straight lines.

If we look at the first two of these more closely

h(x) = -3x-3 i(x) = -3x+9

we notice that they are rather steep (the absolute value of the x coefficient is 3>1), and symmetrical with respect to the vertical axis (the x coefficient has opposite sign). They intersect for x=2 which is conveniently placed halfway through our domain (derived from the circle equations). Note that the resulting ordinate y=3 places the intersection point on the circle we've seen, as:


is satisfied.

The last equation, as I mentioned at the beginning meets my full displeasure due to the choice of decimal separator —in fact, the most annoying thing about is that it uses one at all, as the same values could be written in a more universal way by using fractions:


or inline using the solidus:


This straight line much less steep (in fact, one could say it's barely sloping at all). It also intersects the other two lines in places with some funky values which I'm not even going to bother computing, as we are only interested in the visualization:

The straight lines

The straight lines

So, an ‘A’ shape.

Putting it all together

If we put it all together now, we obtain the quite famous anarchist logo:



Halving series

Note: this article makes use of MathML, the standard XML markup for math formulas. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the formulas don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

This article has been inspired by a post on /r/math, that presented a graphical way to show that the sum of the series of consecutive powers of 1/2 (geometric series with ratio 1/2) converges to 1:

n=1 12n = 12 + 14 + 18 + 116 + = 1

The proposed image was very roughly made and raster, so I decided to re-create it, cleaned up and in vector form:

Halving series (triangles)

Halving series (triangles)

Of course, this is not the only possible approach to demonstrate (note: demonstrate, not prove) the convergence of the series. A similar approach (the one I was more familiar with) is based on rectangles rather than triangles:

Halving series (rectangles)

Halving series (rectangles)

Which one of the two is ‘better’ is obviously up to debate: some people prefer the triangle version, because the series is assembled from figures which are (geometrically) similar, while others prefer the rectangle version, as it features lines parallel to the sides of the original square, and thus clearer features to a higher detail (i.e. more visible sections).

Of course, these are not the only possible representations for the series; for example, sticking to rectangles, one can also proceed by halving each remaining fraction of the original square with lines all parallel, obtaining the striped version:

Halving series (stripes)

Halving series (stripes)

I honestly find this version boring compared to the other two, since in this case it makes much more sense to give a one dimensional representation, by consecutive halving of segments, instead:

Halving series (segment)

Halving series (segment)

The segment splitting is most definitely the simplest, but some people might be more comfortable with the two-dimensional demonstrations, since apparently humans tend to deal better (intuitively) with areas than with lengths.


Note: this section stress-tests support for SVG animation with SMIL. Sadly, this is not properly supported on some allegedly ‘modern’ and ‘feature-rich’ browsers. If the animations don't make sense in your browser, consider reporting the issue to the respective developers and/or switching to a standard-compliant browser.

One of the upsides of using SVG as format for these demonstrations is that it is possible to animate them. Animations have two advantages in cases such as these: one, they present a more intuitive visualization of the “progress” of the infinite summation; and two, they make it easier to avoid the mess which is “perfectly centered text” in SVG (an issue that deserves its own rant).

We can animate the one-dimensional example by introducing each new term with a timing which is proportional to the length of the segment, obtaining something like this:

Animated halving series (segment)

Animated halving series (segment)

There's no need for textual explanation, although we can achieve it by adding an animated summation (which sadly doesn't seem to work correctly in most browsers):

Animated halving series (segment, with formula)

Animated halving series (segment, with formula)

Of course, the same can be done in two dimensions, with both the triangles and rectangles approach.

Animated halving series (triangles)

Animated halving series (triangles)

Animated halving series (rectangles)

Animated halving series (rectangles)

(And of course we could have the variants with formulas here as well, but I think the idea is clear and, honestly, coding these SVG and MathML by hand gets boring after a while, so their realization is left as an exercise to the reader.)


I couldn't draw a human figure if my life depended on it, so I've tried drawing the Katawa Shōjo girls as stick figures, in an ‘artsy’ attempt I've called xKSd (as an obvious pun between KS and XKCD).

My first attempt seemed pretty satisfactory to me (to the point that I felt it was good enough to share on reddit), with the idea that future work would be aimed at tuning the pose or something like that, and remarking that I might have gotten something wrong in my calculations.

xKSd (v0)

xKSd (v0)

Apparently, the image was successful enough to be linked even from the official Katawa Shōjo forum, where it was promply demolished by pointing out that I had gotten the head/body proportions all wrong: due to a brain slip, I had essentially doubled the size of the heads of all characters (using the diameter as radius), achieving a ‘chibi’ effect, as my wife likes to call it (even though the proportions are slightly over 1:4 rather than the 1:2 or 1:3 ratio to which the ‘chibi’ term has ended up referring at least as a Western import).

So I set up to correct the drawing and achieve the intended 1:8 proportions. After some distractions and recomputing, the base image has finally been completed. This is then how it was intended to look like:

xKSd (base)

xKSd (base)

Honestly, I can't say that I'm particularly satisfied with the result. Overall, the previous version, while less correct in terms of proportions, has a better visual appeal.

Am I still getting something wrong in my calculations? Or could it be that ‘chibi’ proportions are more appropriate for stick figures, since the lack of ‘thickness’ in the torso makes them otherwise appear abnormally long?

Whatever the case, it definitely looks like my work here isn't done yet.

Katawa Shōjo

かたわ少女 (Katawa Shōjo, nel seguito KS) è una visual novel (nel seguito VN) interattiva: un lungo racconto multimediale in cui il testo è associato ad immagini di sfondo (gli ambienti) e, durante le interazioni con altri personaggi, da figure (poco) animate in primo piano dei personaggi stessi (con l'esclusione, generalmente, del protagonista), il tutto corredato da musica di sottofondo (altre VN hanno anche voci per i personaggi, ma non è questo il caso di KS); l'interattività è abbastanza limitata, riducendosi ad alcune scelte che il protagonista può fare (nel corso di dialoghi o in momenti cruciali) e che porteranno allo sviluppo della storia in un senso piuttosto che in un altro, sulla scia dei “libri gioco” di un tempo.

Katawa Shōjo rientra nella categoria dei cosiddetti dating sims, simulatori di appuntamento (di grande successo in Giappone); grossolanamente, il protagonista si ritrova in un (nuovo) contesto dove ha la possibilità di incontrare e frequentare un certo numero di ragazze, per arrivare (con le scelte giuste) a fidanzarsi con (o quanto meno portarsene a letto) almeno una.

Non posso negare che questa categorizzazione di KS, benché non errata, è ben lontana dal dare alla VN in questione il giusto valore. In ciascuna delle storie che possono essere seguite, infatti, KS si mantiene ben lontano dalla banale routine “conosci ragazza, frequentala, coccolala/consolala nei tempi e modi giusti, portatela a letto” in cui i dating sims scivolano troppo facilmente. KS è invece una VN di notevole spessore psicologico, di sorprendente profondità, e di coraggiose scelte contenutistiche.

Il titolo, grossolanamente traducibile in “Ragazze Storpie” e che nell'originale giapponese è evidentemente una variazione su bishōjo, termine che caratterizza giochi, fumetti e VN i cui personaggi sono, invece “belle ragazze”, è una immediata presentazione del contesto in cui si troverà a barcamenarsi il protagonista.

Hisao, vittima di un infarto un pomeriggio di febbraio mentre una compagna di scuola gli confessa il proprio amore, scopre grazie all'incidente di soffrire di aritmia cardiaca, e di dover vivere il resto dei propri giorni accompagnato da medicine e con la spada di Damocle di un possibile nuovo, fatale, infarto.

Dopo mesi di ospedalizzazione, in cui tutti i vecchi amici e compagni, finanche la ragazza, lo abbandonano, Hisao si ritrova trasferito in una nuova scuola specificamente attrezzata per ospitare e prendersi cura di ragazzi con vari livelli di disabilità fisiche, grazie anche alla possibilità di ospitare gli studenti nel campus ed alla presenza di personale medico presente in loco 24 ore al giorno, 7 giorni la settimana.

Costretto ad affrontare la propria nuova condizione di disabile (pur privo di menomazioni esteriormente visibili) il protagonista comincia quindi la nuova vita, che gli si prospetta davanti tutt'altro che gioiosa. Nell'arco di una giornata incontrerà i principali personaggi con cui si troverà ad interagire nel corso della storia, dal professore distratto al paranoico vicino di stanza, e soprattutto le ragazze a cui, a seconda delle scelte del lettore, il protagonista potrà avvicinarsi: Emi, senza gambe, Hanako, ustionata, Lilly, cieca, Rin, senza braccia, Shizune, sordomuta.

La VN non è però semplicemente un dating sim per lettori con un feticcio per le disabili, benché ciascuna delle storie che possono essere seguite non manchi di un aspetto erotico: le varie linee, infatti, ciascuna con tre possibili finali (positivo, negativo, ‘neutro’), esplora infatti con notevole acume una varietà di temi psicologici individuali e sociali. (Ulteriori dettagli, non privi di spoiler e corredati da mie personali riflessioni, sulle singole storie raccontate in KS seguiranno in articoli dedicati.)

Pur con le sue imperfezioni nella realizzazione tecnica (punto maggiormente dolente, a mio parere, l'impossibilità di tentare strade alternative dai ‘replay’ delle strade già percorse), la VN dimostra comunque una straordinaria qualità, ancora più sorprendente se si considerano le sue origini e la sua storia (qui per esteso e qui sinteticamente raccontata dagli sviluppatori).

Il seme di KS è infatti un omake, una pagina extra di schizzi, in un dōjinshi (fumetto autopubblicato) liberamente ispirato a Nausicaa della Valle del Vento. La pagina, tradotta in inglese e colorata, riscuote un incredibile successo su 4chan, la più prolifica (e criticata) image board di lingua inglese: proprio su 4chan vengono in breve gettate le basi della VN, ed è tra i partecipanti dell'image board (e di altre comunità successivamente coinvolte nella progetto) che emergono gli artisti, scrittori, musicisti, fotografi che, nel corso di quattro sofferti anni e ad una decina d'anni dall'omake che a tutto ha dato origine, portano infine l'opera a piena maturazione.

KS è quindi “figlia di Internet”, e per molti versi è una brillante dimostrazione di come prodotti artistici di notevole qualità (e successo) possono emergere come frutto delle hive minds (menti collettive) delle comunità online, anche senza pesanti investimenti da parte di ricchi produttori. Rilasciata sotto licenza Creative Commons BY-NC-ND, è anche liberamente (e gratuitamente) ridistribuibile. (Personalmente avrei preferito una licenza più libera —in particolare che permettesse lavori derivati non commerciali— ma trovo consolazione nella natura multi-piattaforma della VN, ed in particolare nella sua disponibilità per Linux.)

Per chi conosce anche solo di fama 4chan e la sua capacità di trattare qualunque tema con la più crudele e dissacrante irriverenza, la profondità ed il tatto con cui KS tocca le varie problematiche affrontate nelle sue fila giungono come una (piacevole) sorpresa. Gran parte del successo della VN è legata proprio a questa sua sorprendente natura, ed alla conseguente capacità di portare il lettore a riflettere sui temi affrontati.

A differenza di altre VN il cui obiettivo è semplicemente di strappare il cuore al lettore (seriamente, c'è un intero genere dedicato a questo, che in giapponese è noto come nakige), infatti, KS riesce a coinvolgere emotivamente senza superficialità.

La molteplicità degli autori coinvolti nella creazione di KS (dopo i brainstorming su 4chan comunque non meno di uno per storia) è alla radice di una certa disomogeneità stilistica nei vari percorsi percorribili all'interno della VN, ma fa anche sì che nella maggiore varietà di temi e modi ciascun lettore possa trovare una strada che risuoni meglio con la sua sensibilità. (Purtroppo, fa anche sì che più difficilmente un singolo lettore possa apprezzare ugualmente tutte le strade.)

Un dato interessante che emerge sfogliando ad esempio il forum dedicato a KS su reddit è la quantità di lettori, soprattutto nella fascia d'età della tarda adolescenza e prima gioventù, che hanno trovato KS educativo, illuminante su come affrontare (o non affrontare) certi aspetti della propria vita o certi rapporti con amici o parenti.

È possibile che il successo riscosso da KS fin dalla pubblicazione del suo Atto I (prima ancora che il gioco fosse finito), e che la VN continua a riscuotere tuttora, abbia motivazioni che vanno oltre la semplice valutazione qualitativa, vuoi nelle scelte contenutistiche, vuoi nelle anomale (e parzialmente anonime) radici nella perversione di 4chan; è tuttavia innegabile che nel panorama dei videogiochi e delle VN esso rimane una scelta raccomandabile, e non solo a chi volesse provare il genere.

L'incubo anarchico

Non c'è niente di peggio per una filosofia nata per reazione allo sfruttamento che esser cooptata alla giustificazione dello stesso.

Dal profondo

Tacete, cetacei.


Il gioco Ibridi è stato inventato da Boulet per intrattenere la figliolanza in questo periodo di quarantena da Coronavirus. Per coloro che non avessero dimestichezza con il francese, mi sono preso la briga di tradurre le regole in italiano.


  • carta;
  • penna o matita;
  • 2d6
    • un dado a sei facce (d6), oppure:
    • due dadi a sei facce (2d6) distinguibili (e.g. colori diversi, uno con numeri ed uno con puntini, etc);


  • disegnate una griglia 6×6 (o meglio 7x7, per includere lo spazio dove mettere i disegni per le ascisse e per le ordinate

  • in ascissa, disegnate 6 bestiole/robe a caso (da decidere insieme ai bambini: orsacchiotti, zombi, soldato, automobile, etc); fate lo stesso per le ordinate;


  • lanciate 2d6 (un dado 2 volte, o due dadi distinguibili: un valore vi dà l'ascissa, l'altro l'ordinata):

    • se la casella corrispondente è vuota, disegnate l'incrocio (ad esempio, orsacchiotto zombi) e guadagnate un punto;
    • se la casella è già occupata, prende un punto chi ha fatto il disegno;

    La griglia in tal modo si riempie, fino a quando non rimangono 12 caselle libere, nel qual caso si passa in modalità “morte istantanea”;

  • in modalità morte istantanea, si continuano a lanciare i dati, ma:

    • se la casella corrispondente è vuota, si disegna l'incrocio e si guadagnano due punti;
    • se la casella corrispondente è già occupata, prende un punto l'autore del disgeno e si riempie un'altra casella a caso;

A griglia piena, ci si è divertiti, si contano i punti e si ha un bel disegno!

Variante: se la casella è già occupata, si colora il disegno (ma il punto lo prende sempre chi ha fatto il disegno originale). Se il disegno è già colorato, si può tirare di nuovo.

Per chi volesse, ho preparato uno schemino stampabile:

(Multilingue, il poco testo visibile è nella lingua del browser di chi legge.) Ed una variante “ombreggiata”:

(Multilingue, il poco testo visibile è nella lingua del browser di chi legge.)


I've done it

I have recently made some “metric” considerations on a memory game that offered “all” national flags. The result is huge, but it's really hard to appreciate how huge it is.

My final comment in the previous post was that a possible choice to have a large number of flags was to rely on the Regional Indicator Symbols pairs supported since Unicode 6.0, that covers 258 regions and thus requires 516 cards.

Get the code for
Uniflags, a memory game with UNICODE flags:


So I've done it. I have created a playable (single player only, at the moment, sorry!) Memory game based off the “current” RIS pairs.

And it is huge. Humongous. To appreciate how impractically large it is, you'll probably have to zoom out to see all of the tiles. Now try playing. See how far you can go, how quickly you'll forget.

But before you do, a couple of implementation notes.


The initial card layout will be square-ish or rectangular-ish depending on the aspect ratio of your browser window. One the cards are laid out (on load), resizing the window will not change the layout (obviously).

There are only two layouts. The rectangular layout has a fixed aspect ratio, so there's not going to be a different layout for, say, 16:10 vs 2:1. However, the rectangular layout also has a vertical version.

One feature that would be nice to have is an option to let the user choose a layout.


Playing is very simple: click on a hidden card to show it, and when you have two cards showing, click on either card to hide both of them. If the two shown cards form a match, they will be ‘locked open’, and you can uncover a new pair. The ‘scoring tile’ keeps track of how many pairs you've uncovered (matched or not), how many turns you've taken (i.e. how many times you've uncovered pairs that were not matches), and how many matches you've found out of the 258 total.

If you click wrongly (e.g. try to uncover a new card when there are two out, or click on the currently uncovered card when there is a single one out), the score tile will give you an error message, and then you can keep playing.

The game page is ‘stateless’, which means it doesn't remember anything: not your best score (for example) nor (most importantly) the current distribution: if you (need to) reload the page for any reason, the game will be reset and you'll find yourself playing a new one.


Beware of duplicate flags! Some regions appear to have the same flag (at least on my system). Examples are the United States of America (RSI US or 🇺🇸) and their Minor Outlying Islands (RSI UM or 🇺🇲), or Norway (RSI NO or 🇳🇴) and Svalbard & Jan Mayen (RSI SJ or 🇸🇯). The tiles will be different because the name of the country is included in the tile, but you'll need to look out for it.


Currently the little text there is (mostly, the region names) is in English. It could be localized. Ideally, for the region names, I'd like to include both the ‘native’ name (for appropriate definition thereof), and a localized name, with the localization taken from the browser/user preferences.


Hot-seat multiplayer wouldn't be too hard to do. The only thing needed is a way to choose the number of players, and to include multiple scoring tables.


I'm releasing Uniflags under version 2.0 of the Mozilla Public License, even though I haven't found the correct way to include the information in the page itself (HTML metadata is unintuitive and boring).


Nel gioco della Morra cinese, una delle cose più difficili da digerire è che la carta batta il sasso; dove il taglio della carta da parte della forbice e la spuntatura della forbice da parte del sasso possono derivare molto facilmente dalla nostra esperienza quotidiana, infatti, non si capisce come un semplice foglio di carta possa “fermare” il sasso.

E per inciso, l'introduzione di varianti come quella di Spock e della lucertola non risolve questo fondamentale problema: anzi, semmai, aggiunge alla preesistente perplessità sulla carta ulteriori dubbi (come ad esempio la sua nuova vittoria contro Spock).

Vorrei quindi proporre una riscrittura delle opzioni del gioco dando come scelta il topo, il gatto e l'elefante: l'elefante schiaccia il gatto, il gatto mangia il topo, il topo spaventa l'elefante (pare che non sia solo un mito (video)).

Rimane il problema della rappresentazione delle scelte. Propongo per il gatto la ‘rampata’ (mano aperte, dita curve ad artiglio), per l'elefante il pugno chiuso (braccio come proboscide); per il topo si potrebbe usare qualche variante della forbice (che avrebbe l'interessante effetto di invertire completamente le vittorie/sconfitte dei simboli tradizionali), o forse più sensatamente il simbolo a ‘becco’ proposto per la lucertola nella già citata variante della morra cinese.

Sun Tzu

Uno dei modi in cui si manifesta la mia nerditudo è l'interesse per le varianti, che rasenta il malato al punto che mi viene da chiedermi quali varianti si possano fare di un gioco prima ancora di aver capito bene le regole del gioco stesso. Suppongo lo si possa far facilmente risalire ad una classica domanda di menti inquisitive: “e se invece …?”

Un caso del genere mi è successo poco dopo aver acquistato un set per il Mah Jong, gioco cinese reso famoso dal solitario (al computer) fatto costruendo una piramide con le tessere del gioco per poi eliminarle a coppie.

Il gioco del Mah Jong (quello vero) è invece un gioco della famiglia del ramino, della Scala 40: si chiude componendo un certo numero di combinazioni (ma invece di scale, tris e poker abbiamo chow, pung e kong) ed in base al tipo di combinazioni ed alle carte impiegate si fanno punti.

Immediatamente, e come dicevo prima ancora di aver capito bene tutti i meccanismi del Mah Jong, mi sono chiesto: ma si potrebbe creare un gioco che stia al Mah Jong come il Machiavelli sta alla Scala 40?

Non ho dubbi sul nome che un tale gioco dovrebbe avere: Sun Tzu, il famoso generale e filoso presunto autore dell'Arte della Guerra. La transizione dal Mah Jong al Sun Tzu è però tutt'altro che banale.

Dalla Scala 40 al Machiavelli si passa con le seguenti mutazioni di regole:

  • si può calare sempre (non c'è limite minimo di punteggio per l'apertura)
  • non c'è pozzo su cui scartare / da cui pescare
  • si pesca solo se non si cala, e se si pesca non si cala
  • le combinazioni calate possono essere riarrangiate a piacimento

Il quarto punto è quello che dà maggior fascino al Machiavelli, e sarebbe il più interessante da replicare nel Sun Tzu. È, ovviamente e purtroppo, anche quello che presenta maggiori problemi.

In primo luogo, infatti, nel Mah Jong non esiste il concetto di ‘calata’. In un certo senso, tutte le chiusure avvengono ‘in mano’, anche se le combinazioni ottenute con lo scarto di un alto giocatore devono essere dichiarate. Nel Mah Jong, ad esempio, non si può attaccare una propria tessera ad una combinazione di un altro giocatore: l'unica combinazione che può essere estesa è il pung (tre tessere uguali, per seme e colore) a cui si può aggiungere la quarta tessera; l'operazione può essere compiuta solo dal giocatore che ha in mano il pung (coperto o scoperto che sia) e l'unico intervento che possono compiere gli altri giocatori è di ‘rubare il kong’, ovvero fare mahjong (chiudere la propria mano) prendendo la quarta tessera del kong nel momento in cui viene dichiarato.

Ma il problema della calata può essere facilmente risolto introducendo il concetto anche nel Sun Tzu: invece di combinazioni coperte e scoperte si hanno combinazioni calate, ed una volta calate non sono più di dominio del giocatore che le ha calate. In conseguenza si adottano dal Machiavelli anche le regole su pescaggio e scarto: non si pesca se si cala, e non si scarta più (ciò che si pesca si tiene in mano fino alla giocata).

Il vero problema nel Sun Tzu è invece l'introduzione del riarrangiamento delle combinazioni giocate; infatti, le tessere del Mah Jong e le combinazioni previste dal gioco sono molto meno flessibili.

Nel Machiavelli le carte disponibili sono divise in quattro scale complete (dall'asso al re) di quattro semi diversi, in doppia copia; le combinazioni possibili sono tris e poker (3 o 4 carte con lo stesso valore ma di seme diverso) e scale (almeno tre carte dello stesso seme con valore sequenzialmente crescente, con eventualmente la possibilità di andare ‘a capo’ dal Re all'Asso): vi sono quindi combinazioni monocromatiche e combinazioni eterocromatiche, combinazioni a lunghezza fissa e combinazioni a lunghezza variabile.

Nel Mah Jong le cose cambiano molto: un set di Mah Jong ha solo tre scale complete (dall'1 al 9) con solo tre semi diversi, a cui si aggiungono tre draghi e quattro venti; ciascuna tessera è presente in quadruplice copia (ignoriamo per ora le tessere bonus —fiori e stagioni— che sono opzionali e non rientrano nelle combinazioni). Le combinazioni che possono essere formate sono tutte monocromatiche e di lunghezza fissa: chow (tre tessere con valore consecutivo —sono quindi esclusi draghi e venti— dello stesso seme), pung (tre tessere uguali) e kong (quattro tessere uguali).

Se il Machiavelli nasce grazie alla possibilità di utilizzare le scale come ‘depositi monocromatici’ a cui aggiungere o da cui prelevare carte singole, e se i tris possono essere rimaneggianti sostituendo carte di un colore con carte di altro colore, queste possibilità svaniscono nel Mah Jong, dove le scale hanno lunghezza fissa e non esistono gruppi eterocromatici. A questo si aggiunge l'esistenza di tessere in cui il concetto di scala non è sensato, benché si possa stabilire un ordine sia per i venti —est sud ovest nord, in accordo con la disposizione dei giocatori e della sequenza dei venti prevalenti in una partita di Mah Jong— sia per i draghi —rosso verde bianco.

Monopoli in libera uscita

Diciamocelo. Per chiunque abbia una minima cultura nei giochi da tavola, il più famoso (protetto da copyright) è anche il più noioso: tatticamente e strategicamente appena più interessante del Gioco dell'Oca, il Monopoli potrebbe benissimo venir rinominato in Noiopoli o Monotoni.

Forse per questo il Monopoli, che per moltissimi è il primo approccio al gioco da tavola, è anche uno dei giochi del quale esistono il maggior numero di varianti (dal raddoppio dell'incasso quando ci si ferma al Via! all'impossibilità di costruire quando non ci si ferma su un proprio terreno): nessuna di queste varianti però (tranne quella del ‘premio di consolazione’ per chi fa 2 ai dadi) tocca l'aspetto più stocastico del gioco, ovvero il lancio dei dadi, ed il movimento dei giocatori che ne consegue: in particolare, nessuna delle varianti altera la probabilità di distribuzione delle caselle (è ben noto ad esempio che il secondo trittico del lato carcere-posteggio è il più probabile).

Il modo più semplice per inserire un po' di varietà all'interno del gioco è di dare la possibilità di scegliere, prima del lancio del dado, se andare avanti o indietro. Ovviamente, per impedire spensierati andirivieni sul Via! si impone anche che una marcia indietro che attraversi la famosa casella costi quello che normalmente rende. La cosa su cui si potrebbe discutere è invece: cosa fare in caso di doppietta? È ammesso un cambiamento di marcia per il secondo (ed eventualmente per il terzo) lancio, o bisogna mantenere la stessa rotta? La possibilità di alterare la marcia è ovviamente molto conveniente, mentre obbligare alla prosecuzione nella stessa direzione può essere rischiosa (se si è a meno di metà del tabellone si rischia di andare a capo, pagando la tassa di attraversamento del Via! e rischiando una fermata su un terreno di lusso).

Volendo, si potrebbe anche scegliere di cambiare dado: dopo tutto, ogni buon giocatore di giochi di ruolo ha a propria disposizione dadi a 4, 6, 8, 10, 12, 20 facce; perché quindi limitarsi a una coppia di d6?

D&D dice set

In realtà, si può fare qualcosa di più; in tutti i giochi in cui sono coinvolti i dadi si va normalmente a guardare o al singolo valore o alla somma dei valori (l'unica eccezione è l'uso di due d10 per simulare un d%, ovvero un dado a 100 facce), per un motivo abbastanza ovvio: garantire una distribuzione ben equilibrata delle probabilità per ciascun valore nell'intervallo di quelli possibili; ad esempio, con due dadi (classici a 6 facce) si possono ottenere tutti i valori da 2 a 12, con frequenze che crescono dal 2 al 7 per poi decrescere simmetricamente:

Distribuzione dei valori per lanci di 2d6 con somma dei punti

Così, l'idea che mi è venuta oggi è stata: che succede se invece della somma dei dadi si usa il prodotto? I risultati sono molto interessanti:

Distribuzione dei valori per lanci di 2d6 con prodotto dei punti

Innanzi tutto, ovviamente, benché si possano ottenere 1 (minimo) e 36 (massimo), solo 18 (ovvero la metà dei) valori sono permessi: da 1 a 6, da 8 a 10, e poi sempre più sporadicamente 12, 15, 16, 18, 20, 24, 25, 30, 36 (mancano in particolare i primi maggiori di 6 ed i loro multipli). Abbiamo quindi 6 numeri da 1 a 6, poi 6 numeri da 7 a 16, poi 6 numeri da 17 a 36: una partizione bilanciata dei valori ammissibili è data da 1, 6, 16, 36, con intervalli che vanno raddoppiando: 5, 10, 20. I primi nove valori ammessi vanno da 1 a 10 (inclusi), i successivi da 11 a 36 (benché l'11 in sé non sia ammesso), quindi con estremi che distano di 9 e 25, entrambi quadrati. Un'ultima interessante divisione usa invece 6 (che dà un terzo dei valori, ovvero 0.3…), 12 (che dà un terzo dei restanti due terzi, ovvero due noni, ovvero 0.2…) e 36 (che dà i restanti due terzi di due terzi, ovvero quattro noni, ovvero 0.4…)

Queste considerazioni non tengono conto del fatto che i valori ammissibili hanno probabilità molto diverse, e distribuite in maniera molto meno organica:abbiamo due picchi (6 e 12 sono i valori statisticamente più probabili) e cinque minime probabilità (1, 9, 16, 25, 36, ovvero i quadrati escluso il 4), lasciando undici valori intermedi con la stessa frequenza escluso il 4: il 4 è anomalo poiché può essere ottenuto sia come quadrato sia come prodotto misto (1, 4). A causa di questa anomalia non è possibile una partizione standard che dia percentuali interessanti di probabilità (né in terzi né in metà né in quarti).

Se ne può però trovare una anomala, che prenda 2…5, 6…10, 11…18, 19…1 (andando cioè “a capo” dopo il 36), che dà un quarto di probabilità a ciascun gruppo, ma è anche interessante per la distribuzione dei valori (un nono per i primi tre, un terzo per l'ultimo gruppo); ovviamente, 2…10 e 11…1 si possono prendere per avere 50% di probabilità. Inoltre, nell'intervallo 2…12 sono ammessi 9 valori contro gli 11 disponibili sommando: mancano il 7 e l'11, i due valori più importanti nel Craps.

Diventa allora più interessante confrontare le distribuzioni per somme e prodotti:

Confronto delle distribuzioni dei valori per 2d6

e si nota subito un'altra peculiarità: 3 e 4 hanno la stessa probabilità in entrambi i casi. Gli altri valori sono più facili da ottenere sommando (ove possibile), con l'eccezione degli estremi: il 2 e soprattutto il 12.

Si vede bene a questo punto che vi sarebbero interessantissimi questioni numerologiche sulla distribuzione dei numeri nel prodotto di due dadi, ma i fattoidi suenunciati sono già sufficientemente interessanti per proporne l'uso in giochi da tavola come il Monopoli: la scelta (ovviamente da effettuare prima del lancio) di poter utilizzare il prodotto invece della somma dei dadi altera significativamente tattica e strategie di gioco, giacché rende meno favorevoli molte delle caselle normalmente considerate preziose.

L'uso classico del prodotto è il tentativo di percorrere grandi distanze, ad esempio per evitare di finire sui famigerati Viale dei Giardini e Parco della Vittoria; eppure, dando un occhio alla distribuzione di probabilità nel prodotto si vede subito che benché la probabilità vi sia, è più difficile fare più di 12 passi che farne meno (36.11% contro il 63.89%); e la probabilità di fare 6 al massimo (ovvero il punteggio di un solo dado) è del 38.89%, la fetta più grande:

Percentuali per gruppi di valori nel prodotto di 2d6

Ecco quindi le regole del Monopoli il libera uscita:

  • si gioca come nel Monopoli normale (o, se si vuole una qualunque altra variante), con l'unica eccezione del lancio del dado;
  • prima di lanciare il dado al proprio turno, il giocatore può dichiarare che vuole correre: nel qual caso il punteggio dei dadi verrà moltiplicato e non sommato;
  • il giocatore, sempre prima di lanciare il dado, può altresì dichiarare di voler andare all'indietro: nel qual caso farà retrocedere la sua pedina del punteggio (sommato o moltiplicato) dei dadi;
  • se si passa dal Via! retrocedendo, si paga il valore che normalmente si otterrebbe passandolo normalmente;
  • è consentito correre e/o andare all'indietro solo dopo aver completato il primo giro, ovvero dopo essere passati dal Via! almeno una volta (finire in prigione non conta come passare dal Via!)
  • le regole per i dadi doppi rimangono invariate, ma si può scegliere passo e direzione prima di ciascun lancio;
  • si può correre o retrocedere uscendo di prigione.

Le ultime due sono forse un po' troppo favorevoli, e per ridurre i tempi di gioco si potrebbe imporre che i lanci successivi al primo, all'interno dello stesso turno, debbano avere la stessa direzione e lo stesso passo, e che dalla prigione non si possa retrocedere, ma si possa camminare.

Altre idee?

Appunti per un dibattito sui regimi fiscali

Da anni rimando di buttar giú queste note, principalmente perché desideroso di complementarle con una simpatica interfaccina per “giocare” sull'effetto di varî sistemi di tassazione. Dopo l'ennesima difesa della presunta equità della famigerata flat tax ho deciso però infine di mettermi a scrivere.


Per pararmi da alcuni possibili interventi da parte di anarchici e libertari premetto subito che tutti i discorsi che seguono partono dal presupposto che la tassazione è una necessità: lo Stato (o chi per lui) offre un certo numero di servizi, che hanno un costo, per coprire il quale lo Stato ha bisogno di soldi, e la tassazione è il meccanismo primario con cui lo Stato se li procura. Ammesso e non concesso che esistano meccanismi alternativi, tale discussione va condotta indipendentemente (ed in separata sede) dalle questioni circa l'equità dei vari sistemi fiscali e del loro impatto socioeconomico, che intendo invece affrontare qui.

Mi concentrerò inoltre principalmente sulla tassazione del reddito, anche se non escludo qualche commento o future estensioni di questa pagina per parlare di altre forme di tassazione.

Nel discorso che segue supporrò che ciascun soggetto tassabile abbia un proprio reddito annuo lordo (RAL) R, su cui pagherà una certa quantità di tasse T. Il valore D=R-T rappresenta il reddito disponibile, ovvero quello che il soggetto potrà effettivamente spendere, ovvero ancora quella parte del reddito del soggetto che potrà direttamente contribuire all'economia. Distingueremo inoltre dalle (potenziali) spese del soggetto quelle essenziali (o imprescindibili, ovvero che il soggetto non può non sostenere) E, identificando il rimanente S=D-E=R-T-E come reddito discrezionale.

Un aspetto importante da considerare è che l'importo delle spese essenziali E non dipende dal reddito, ma esclusivamente dalla natura del soggetto e dalle sue circostanze; per esempio, se il soggetto è un singolo individuo questi avrà un certo minimo di spese da sostenere per nutrirsi, vestirsi, avere un tetto sopra la testa, raggiungere il luogo di lavoro, etc; se il soggetto è una famiglia con 4 persone, questo minimo sarà ovviamente diverso (ed in genere piú elevato, viste le maggiore necessità di cibo e di vestiario, anche se probabilmente inferiore a 4× il minimo del singolo individuo). Tutto il resto può essere considerato parte delle spese discrezionali.

(Volendo, ci si potrebbe anche dilungare su come minimizzare le spese essenziali nel breve termine abbia in realtà un costo maggiore sul medio/lungo termine, per cui bisognerebbe prestare attenzione a quanto si debba considerare essenziale e quanto discrezionale, ma tutto questo merita a sua volta un discorso a parte.)

Una nota semantica

Il principale problema dell'analisi presentata in questo testo risiede nella scelta del significato da dare alla parola “equo”: quando è equo un sistema fiscale?

L'idea generale che si vuole rispettare è che si abbia diritto a godere dei beneficî della propria produttività —qualcosa su cui, a livello puramente concettuale, possono trovarsi d'accordo il veterocomunista Marxista piú convinto (dopo tutto, è da questo che parte la famosa teoria del plusvalore) con l'anarco-capitalista libertario dell'ultim'ora. Le differenze, ovviamente, risiedono nella proposta strategica per il raggiungimento di questo ideale, ma ancor prima, e forse soprattutto, nella scelta (metodologica) di come quantificare in concreto quanto ci si stia distaccando dall'ideale.

Cosa va rapportato con cosa, nel decidere quanto si sta godendo della propria produttività? Le scelte sono innumerevoli (lo sforzo al reddito? il reddito proprio a quello altrui? il reddito lordo a quello netto?)

Per l'analisi che segue faremo una scelta ben precisa, con la coscienza che tale scelta pone in maniera naturale dei limiti sulla validità dell'analisi stessa, e che porre obiettivi diversi porterebbe per necessità a conclusioni diverse. D'altra parte, riteniamo che la scelta in sé sia ben fondata, almeno nella misura in cui si stia analizzando un sistema fiscale caratterizzato da una certa semplicità: l'equità del sistema sarà per noi la misura in cui quello che rimane in tasca al soggetto sia quanto piú proporzionale possibile al suo reddito lordo, tolte le tasse e le spese essenziali.

Analisi dell'equità della flat tax

Con il termine flat tax si intende un sistema fiscale con singola aliquota k<1. Dato il reddito lordo R, le tasse da pagare saranno kR, indipendente dall'ammontare di R, e possibilmente anche da altri fattori (quali la fonte del reddito stesso).

L'idea di base di molti suoi sostenitori è che tale sistema fiscale, oltre ad avere il vantaggio della semplicità, sia anche “piú equo” di altri (in cui le aliquote variano a seconda del reddito stesso) perché tutti pagano la stessa percentuale del proprio reddito lordo, ed hanno pertanto la stessa percentuale di reddito disponibile: DR=1-k.

Se però guardiamo al reddito discrezionale, le cose cambiano; il rapporto SR si riduce infatti a 1-k-ER, ed essendo le spese essenziali E indipendenti dal reddito (e quindi in particolare uguali a parità di natura del soggetto e sue circostanze), il rapporto ER tende a zero al crescere di R, aumentando il rapporto SR.

Facciamo un esempio con dei numeri. Prendiamo tre soggetti che abbiano le stesse spese essenziali, mettiamo E=5¤ (l'anno) e che vi sia un'unica aliquota fiscale k=20%=0.2. Supponiamo che i RAL siano 10¤, 50¤ e 100¤: i redditi lordi stanno in rapporto 1:5, 1:2 e 1:10. Di tasse pagano rispettivamente 2¤, 10¤ e 20¤ (mantenendo gli stessi rapporti), con redditi disponibili rispettivamente 8¤, 40¤ e 80¤ (ancora con gli stessi rapporti).

Tolte però le spese essenziali, i redditi discrezionali rimanenti sono 3¤, 35¤ e 75¤: tra il primo ed il secondo vi è un rapporto di 1:11.67 (piú di due volte il rapporto tra i RAL), tra il secondo ed il terzo di 1:2.14, e tra il primo ed il terzo di 1:25, due volte e mezzo il rapporto tra i RAL.

Al di là dei numeri specifici, rimane la realtà dei fatti: con un'aliquota singola, il rapporto SR cresce al crescere del reddito, risultando quindi (proporzionatamente) piú favorevole a chi ha RAL piú elevati, tanto piú quanto piú è alta la discrepanza tra i RAL.

La soglia d'esenzione

La flat tax piú rudimentale presenta anche un altro problema: nel momento in cui vengono considerate le spese essenziali, la combinazione di queste (fisse) e delle tasse (proporzionali al reddito) porta i redditi piú bassi addirittura in negativo, anche supponendo che non vi siano redditi inferiori alle spese essenziali.

Per evitare questa idiosincrasia, la soluzione piú semplice è l'introduzione di una soglia d'esenzione (no tax area), che chiameremo N. In un tale sistema, i redditi lordi verranno tassati solo nella misura in cui superano tale soglia d'esenzione (ed in particolar modo, i redditi inferiori alla soglia d'esenzione non saranno tassati). L'importo delle tasse sarà quindi T=k(R-N), per R>N. (Ovviamente, per evitare la criticità dell'andare in negativo con le tasse, è necessario che N sia non inferiore ad E.)

La presenza di una soglia d'esenzione, oltre a risolvere la criticità, aiuta anche ad “equalizzare” la sproporzione tra redditi lordi e redditi discrezionali presente con l'aliquota singola, essendo SR=1-k(1-NR)-ER.

Se nell'esempio già considerato aggiungiamo infatti una soglia d'esenzione di, mettiamo, 6¤, otteniamo che il reddito di 10¤ sarà tassato solo su 4¤, e dovrà quindi pagare 0.8¤, il reddito di 50¤ sarà tassato su 44¤, e dovrà quindi pagare 8.8¤, mentre il reddito di 100¤ sarà tassato su 94¤, e dovrà quindi pagare 18.8¤. In questo caso, in proporzione, il reddito piú alto dovrà pagare piú tasse (tra il minimo ed il massimo il rapporto di quanto pagato è di 1:23.5 a fronte di un rapporto di redditi lordi di 1:10), ma benché i rispettivi redditi discrezionali (4.2¤, 36.2¤, 76.2¤) rimangano sproporzionatamente in favore dei redditi elevati (1:8.62, 1:2.1 ed 1:18.14 rispettivamente), la discrepanza è inferiore al caso senza soglia d'esenzione.

La soglia d'esenzione è quindi una misura (anzi l'unica, se l'obiettivo è la semplificazione del sistema fiscale) per limitare l'effettiva iniquità (e soprattutto il conseguente impatto sull'economia reale) dell'aliquota singola.

(Il discorso in realtà non è cosí semplice nel momento in cui si osserva che, all'interno della no tax area non vi è alcuna proporzionalità dei redditi discrezionali, essendo SR=1-ER. L'unica soluzione in questa prospettiva è l'eliminazione di tutte le spese essenziali, possibile solo nel momento in cui lo Stato fornisca tutti i servizi essenziali a titolo interamente gratuito per gli utenti, ovvero senza altre spese che le tasse.)

Trovare un equilibrio

Possiamo riscrivere la formula del rapporto tra reddito discrezionale e reddito lordo come:


mettendo quindi in evidenzia come il contributo della soglia d'esenzione abbia segno inverso ad E e ne possa quindi compensare l'effetto.

{ Studio del segno del termine nelle condizioni di esistenza RNE) }

Volendo considerare il carico fiscale “massimamente equo” laddove tale rapporto sia costante (ovvero nella condizione in cui, indipendente dal RAL, si abbia la stessa percentuale di reddito discrezionale), è necessario annullare E-kN, ottenendo la condizione N=Ek (osserviamo che essendo k<1, si avrà sempre N>E, come voluto). Per N<Ek si ottiene un sistema che favorisce i redditi piú alti, mentre N>Ek dà un sistema che favorisce i redditi piú bassi.

La relazione ci dice in particolare che riducendo l'aliquota occorre alzare la soglia di esenzione per preservare l'equità. Viceversa, aumentando l'aliquota si può ridurre la soglia d'esenzione, fino ad un minimo teorico di E nel caso di tassazione al 100%. E vale ovviamente la relazione inversa, per cui piú è bassa la soglia d'esenzione piú alta dev'essere l'aliquota per mantenere equo il sistema.

Un corollario interessate a questo è che una riduzione dell'aliquota che mantenga equo il sistema (alzando proporzionatamente la soglia d'esenzione) porta ad un decremento del gettito fiscale complessivo da due fronti: meno tasse dai contribuenti, e meno contribuenti.

(Nell'esempio numerico preso in considerazione sopra, la soglia d'esenzione ottimale sarebbe N=5¤0.2=25¤, portando il reddito da 10¤ nella no tax area. Il reddito da 50¤ verrebbe tassato su 25¤, per un totale di 5¤, portando il reddito discrezionale a 40¤; il reddito da 100¤ verrebbe tassato su 75¤, con 15¤ di tasse, portando il reddito discrezionale a 80¤, e mantenendo quindi il rapporto 1:2 dei RAL anche nei discrezionali. Il fisco riceverà da questi contribuenti un totale di 20¤, contro i 28.4¤ della soglia a 6¤ ed i 32¤ dell'aliquota singola pura. Mantenere lo stesso gettito fiscale nell'esempio in questione sarebbe ad esempio possibile con un innalzamento dell'aliquota al 28% con un conseguente abbassamento della soglia d'esenzione ai 17.87¤ circa, che lascerebbe comunque fuori il reddito piú basso.)

Considerazioni sparse

  • poiché le spese essenziali dipendono dal soggetto e dalle circostanze, il calcolo della soglia d'esenzione (che ad essa è legata nel rapporto di equità) dovrebbe avere un'analoga dipendenza, con notevoli implicazioni (ed una discussione a parte meriterebbe a questo punto l'equità di questa soglia d'esenzione variabile);

  • l'aliquota singola è tanto piú iniqua quanto piú è elevata la disparità tra RAL (es. forbice salariale);

  • l'aliquota singola è tanto piú iniqua quanto piú sono elevate le spese essenziali;

    un interessante corollario è il seguente: piú è bassa l'aliquota, piú essa è (indirettamente) iniqua; la motivazione è la seguente: (parte del)le spese essenziali può essere assorbita dallo Stato e dai servizi che esso offre; meno sono i servizi offerti dallo Stato, e minore è la loro qualità, maggiore sarà l'importo delle spese essenziali; e poiché servizi di qualità costano, anche nell'ottimistico caso teorico di uno Stato massimamente efficiente, minore è il gettito fiscale dello Stato, minori saranno i servizi e la loro qualità; ad aliquote piú basse corrispondono gettiti fiscali inferiori, e quindi meno servizi (e di qualità inferiore): maggiori saranno pertanto le spese essenziali, e pertanto maggiore sarà l'iniquità dell'aliquota;

    poiché le spese essenziali dipendono dal gettito fiscale, abbiamo un sistema fortemente non lineare in cui il gettito fiscale dipende dalla soglia d'esenzione che dipende (tramite la propria dipendenza dalle spese essenziali nel rapporto d'equità) anche dal gettito fiscale stesso.

Quale reddito libero?

Evoluzione dell'iniquità

Dal discorso fatto sopra sulla flat tax dovrebbe essere evidente che la principale difficoltà nel definire aliquote e soglie d'esenzione per un sistema fiscale affinché questo possa essere considerato equo (nella misura usata, ovvero la proporzionalità tra RAL e reddito discrezionale) è la determinazione delle spese essenziali.

Assumendo che il problema sia in pratica irrisolvibile (salvo, come già accennato, l'annullamento di tutte le spese essenziali, tramite servizi offerti dallo Stato a titolo interamente gratuito) occorre scegliere tra quella che potrebbe essere una sovrastima di tali spese (e quindi in conseguenza anche della soglia d'esenzione) o se sia preferibile una sottostima degli stessi. Come già detto, la differenza principale è che l'uno “favorisce” (lascia proporzionatamente piú reddito discrezionale a) i RAL piú bassi, mentre l'altro “favorisce” i redditi piú alti.

Si potrebbe inquadrare questa questione nel piú generico dibattito dell'economia supply-side vs demand-side, supponendo che (statisticamente) i redditi piú elevati siano quelli “imprenditoriali”, ma è anche possibile fare un'analisi delle due scelte limitandoci al campo delle riflessioni fatte finora.

Partiamo dall'osservazione che il reddito discrezionale è quello che il soggetto può utilizzare per i proprî scopi (al di fuori della soddisfazione dei bisogni essenziali), ed in particolar modo è quello che il soggetto può utilizzare per migliorare la propria condizione, inclusa qui anche la possibilità di trovare un lavoro migliore, o di investire sul proprio lavoro per renderlo piú efficiente, e quindi in generale anche di innalzare il proprio RAL.

Avere piú reddito discrezionale disponibile dà piú opportunità in questo senso, ovvero maggiori o migliori possibilità di passare ad un RAL superiore, almeno a parità di RAL di partenza. (Non faremo in questo senso alcuna ipotesi di relazione tra queste possibilità ed il RAL di base, ovvero non ipotizziamo che passare ad esempio da 10¤ a 20¤ sia intrinsecamente piú o meno facile che passare da 20¤ a 30¤ o da 20¤ a 40¤.)

Confrontiamo adesso due sistemi fiscali iniqui (ovvero in cui il reddito discrezionale non sia proporzionale al RAL) in senso opposto: un sistema A che favorisca i redditi piú alti, ed un sistema B che favorisca i redditi piú bassi. Per quanto appena osservato, nel sistema A i redditi piú alti saranno favoriti (rispetto agli stessi redditi del sistema B) nel migliorare la propria condizione, mentre i redditi piú bassi si troveranno svantaggiati; nel sistema B sarà ovviamente al contrario.

Il sistema A migliora quindi le possibilità dei redditi alti per diventare ancora piú alti, limitando quelle dei redditi bassi, laddove il sistema B migliora le possibilità dei redditi bassi di sollevarsi, limitando quelle dei redditi alti. Il primo tenderà quindi ad allargare la disparità tra RAL, mentre il secondo tenderà invece a ridurla.

L'inquità dei due sistemi ha quindi una caratteristica strutturale che le differenzia: l'inquità a favore dei RAL piú alti tende ad amplificare l'iniquità stessa (aumentando la forbice), laddove l'inquità a favore dei RAL piú bassi tende a ridurre l'iniquità del sistema favorendo la riduzione della forbice.

{ Analisi sull'eventuale RAL di “equilibrio” nel sistema B; occorrerà probabilmente considerare anche il comportamento dei redditi sotto la soglia d'esenzione }

Il limite dell'analisi

Ovviamente, poiché queste operazioni di (de)stabilizzazione operano sulla distribuzione dei redditi, si potrebbe obiettare che il costo di questa equità fiscale è l'omogeneizzazione dei RAL, condizione nel quale tutti i meccanismi fiscali basati puramente sul RAL diventano automaticamente fiscalmente “equi”, spostando di fatto l'iniquità altrove, ad esempio con una effettiva disincentivazione del raggiungimento di RAL piú elevati, se non addirittura “punendo” il guadagno “eccessivo”: producendo il doppio, pur portandomi ad un RAL doppio, non mi darà il doppio di soldi in tasca, ed anzi tanto meno di ciò quanto piú favorevole ai redditi bassi sarà il sistema.

D'altronde, se di equità stiamo parlando, non è nemmeno equo che chi riesce ad ottenere solo un RAL basso debba per questo essere “punito” per avere un guadagno “insufficiente”: per quale motivo produrre la metà, pur portandomi ad un RAL dimezzato, dovrebbe darmi meno della metà di soldi in tasca, ed anzi tanto meno di ciò quanto piú favorevoli ai redditi alti è il sistema?

Azzarderei quindi che, pur con i suoi limiti, l'analisi fatta finora gode di un certo “bilanciamento”, non superabile senza l'introduzione di ulteriori elementi di valutazione.

Si potrebbe ad esempio riflettere su quanto il RAL sia frutto effettivamente dell'impegno del soggetto (nel qual caso si potrebbe voler premiare il maggior impegno che ha portato ad un RAL piú elevato, e quindi prediligere il sistema A), e quanto invece delle circostanze (nel qual caso sarebbe quasi sadico impoverire ulteriormente chi non avrebbe potuto fare altrimenti, e quindi prediligere il sistema B). Oppure, adottando un'ottica “calvinista”, o quanto meno weberiana, si potrebbero considerare le circostanze dominanti, ma prediligere comunque il sistema A, che per sua natura “premia” il successo e “punisce” l'insuccesso, vedendolo quindi, in maniera forse un po' blasfema, come una manifestazione terrena della Grazia di Dio.

Sull'utilità marginale del reddito

Un aspetto a cui si può guardare con un occhio forse piú oggettivo è l'effetto che la distribuzione dei redditi (ed in particolare del reddito discrezionale) ha sull'economia in particolare, e sulla società in generale.

Sostanzialmente, dovendo scegliere tra due sistemi fiscali entrambi iniqui nei confronti dei singoli contribuenti, vogliamo andare a vedere quale dei due sistemi possa dare un beneficio complessivo all'economia (ed alla società), pur operando a discapito di una delle due categorie (quella dei redditi alti o quella dei redditi bassi).

Partiamo con l'osservare che, a parità dell'ammontare della variazione, l'effetto di una variazione di reddito discrezionale cambia in base al reddito di partenza: un incremento o un decremento di 1¤ su un reddito discrezionale di 1¤ e molto maggiore dello stesso su di un reddito di 10¤, per il quale è comunque superiore allo stesso incremento su di un reddito di 100¤ (in un certo senso, il denaro stesso segue la legge dell'utile marginale decrescente).

L'impatto di questa variazione non è solo intrinseco, legato alla proporzione fra variazione e valore di riferimento, ma ha anche implicazioni sulle modalità in cui l'economica da tale variazione può beneficiare (o essere danneggiata). Eppure già solo il valore relativo della variazione dovrebbe far riflettere, in particolare sull'opportunità che, a parità di gettito fiscale, il carico sia “spostato” sui redditi piú alti.

Ragioniamo per questo in termini della utilità complessiva legata alla particolare distribuzione di reddito.

Data una certa distribuzione di soggetti, ciascuno con il proprio RAL e con le proprie spese essenziali, la scelta del sistema fiscale (aliquota e soglia d'esenzione) comporta variazioni sul gettito fiscale complessivo (somma di tutti gli importi pagati dai contribuenti) e pertanto di reddito discrezionale complessivo (somma di tutti i redditi discrezionali). Tuttavia è anche possibile variare il sistema fiscale mantenendo invariato il gettito. In tal caso, scelte diverse di aliquota e soglia d'esenzione porteranno ad una diversa distribuzione del medesimo reddito discrezionale complessivo (osserviamo che se il gettito fiscale non cambia, con esso non cambia la somma dei redditi discrezionali).

Per quanto osservato sull'utilità marginale del reddito discrezionale, sotto opportune condizioni, una variazione del sistema fiscale che, a parità di gettito fiscale, benefici i redditi piú bassi a danno di quelli piú alti risulta in un incremento complessivo dell'utilità dello stesso ammontare di reddito discrezionale.

Supponiamo ad esempio che vi siano 10 redditi discrezionali da 10¤ l'uno e 10 redditi discrezionali da 100¤ l'uno. Un variazione del sistema fiscale che incrementi di 1¤ i redditi discrezionali da 10¤ e riduca dello stesso ammontare i redditi discrezionali da 100¤ risulterebbe in una distribuzione di reddito con una maggiore utilitià complessiva (l'utilità marginale acquisita dai redditi piú bassi è superiore a quella persa dai redditi piú alti).

In quest'ottica, un sistema iniquo di tipo B (piú favorevole ai redditi bassi) sarebbe preferibile ad un sistema iniquo di tipo A (piú favorevole ai redditi alti) nella misura in cui porterebbe ad una maggiore utilità complessiva del reddito discrezionale.

Vi sono ovviamente dei limiti entro cui tale meccanismo è ammissibile: se ad esempio supponiamo che vi siano 99 redditi discrezionali da 10¤, ed un solo reddito discrezionale di 100¤, un incremento di 1¤ per tutti i redditi bassi comporterebbe una perdita di 99¤ del reddito discrezionale alto per mantenere il gettito fiscale: a fronte di un incremento contenuto per l'utilità dei redditi bassi si avrebbe un crollo drammatico per quello alto. Anche nel caso in cui l'utilità complessiva dovesse risultate maggiore, questo incremento dovrebbe essere pesato contro la notevole iniquità del sistema.

Non di facile soluzione è in questo determinare i limiti concreti di ammissibilità di questa forma di redistribuzione del reddito discrezionale.

Impatto economico e sociale

{ Miglioramento dell'economia legato alla maggiore utilità del reddito redistribuito; impatto sociale dell'innalzamento dei redditi piú bassi; potrebbero essere necessarie riflessioni (e dati) sulla distribuzione percentuale dei RAL }


John Maynard Keynes

Forse uno dei più geniali inviti al pragmatismo:

The long run is a misleading guide to current affairs. In the long run we are all dead.

Il lungo periodo è una guida fuorviante per gli affari correnti. Nel lungo periodo saremo tutti morti.

John Maynard Keynes, A Tract on Monetary Reform, Ch. 3

Una delle più puntuali definizioni del capitalismo liberale:

Capitalism is the astonishing belief that the nastiest of men and the nastiest of motives will somehow work for the benefit of all

Il capitalismo è quella sorprendente credenza secondo cui i più odiosi degli uomini ed le più odiose delle intenzioni in qualche modo porteranno al bene di tutti

John Maynard Keynes, attribuita da sir George Schuster in Christianity and human relations in industry

Bertrand Russell

Advocates of capitalism are very apt to appeal to the sacred principles of liberty, which are embodied in one maxim: The fortunate must not be restrained in the exercise of tyranny over the unfortunate

I difensori del capitalismo sono molto inclini all'appellarsi ai sacri principî della libertà, che sono raccolti in una massima: il fortunato non deve essere trattenuto dall'esercitare tirannia sopra lo sfortunato

Bertrand Russell, Freedom in Society (Essay 13 in Sceptical Essays)

When you are studying any matter, or considering any philosophy, ask yourself only: What are the facts, and what is the truth that the facts bear out. Never let yourself be diverted, either by what you wish to believe, or by what you think would have beneficent social effects if it were believed; but look only and solely at what are the facts

Quando studiate qualunque qquestione, o considerate qualunque filosofia, chiedetvi soltanto: quali sono i fatti, e qual è la verità supportata da questi fatti. Non lasciatevi mai dirottare né da quello che vorreste credere, né da ciò che pensate possa avere benefici effetti sociali se fosse creduto; ma guardate solo ed esclusivamente a quali sono i fatti

Bertrand Russell, Face to Face (BBC interview)

Albert Allen Bartlett

The greatest shortcoming of the human race is our inability to understand the exponential function.

Il piú grande limite della razza umana è la nostra incapacità a comprendere la funzione esponenziale.

Samuli Paronen

Confesso di non conoscere il finlandese, ma mi ha molto incuriosito la citazione di questo autore trovata in questo articolo:

Todelliset voittajat eivät kilpaile
I veri vincenti non competono

Jason Read

People who dismiss the unemployed and dependent as “parasites” fail to understand economics and parasitism. A successful parasite is one that is not recognized by its host, one that can make its host work for it without appearing as a burden. Such is the ruling class in a capitalist society.

Coloro che scartano i disoccupati e gli assistiti come “parassiti” non capiscono né l'economia né il parassitismo. Un parassita ha successo quando non viene riconosciuto tale dal proprio ospite, quando riesce a far lavorare il proprio ospite a proprio vantaggio senza sembrare un peso. Tale è la classe dirigente di una società capitalista.

Pierre Despoges

On peut rire de tout, mais pas avec tout le monde.
Si può ridere di tutto, ma non con tutti.
Pierre Despoges


Why does Garry Kasparov choose to fight Deep Blue at chess when he could simply pull its plug?

Perché Garry Kasparov decide di battersi contro Deep Blue a scacchi quando potrebbe semplicemente staccargli la spina?

Al mondo ci sono due tipi di persone: da una parte gli intelligenti e dalla stessa parte gli idioti che non capiscono di dover andare dall'altra.

L'Italia è un paese di destra, ma ogni giro di destra non dura più di vent'anni. L'ultimo è iniziato ieri.

Appunti di viaggio

Alcune note sparse su come scegliere/valutare annessi e connessi al viaggio.


Nel valutare le camere, piccoli dettagli a cui prestare attenzione (da fare: assegnare punteggi ):

  • cioccolattino sul letto/frutta fresca accanto al letto (quando si arriva/dopo il servizio di camera);
  • possibilità di farsi un té in camera (bollitore, té, zucchero);
  • presa di corrente vicina al letto;
  • internet gratis;

Opportunismo ecologico: molti alberghi assumono una qualche convenzione per far sì che i clienti stessi possano segnalare quando cambiare le lenzuola (cartellino da lasciare sul letto, letto completamente tirato via) o gli asciugamani in bagno (generalmente, da lasciare sul pavimento se si desidera vengano cambiati). A loro fa comodo, ed è un piccolo contributo a ridurre gli sprechi.

Corollario: quando si fanno viaggi “in lungo” (una nuova città ogni giorno) bisognerebbe considerare anche questo impatto ambientale (dieci giorni di viaggio = dieci cambi di lenzuola e asciugamani) oltre alla classica carbon print (aerei, macchine, treni, etc).

Online Tests

Confesso che di tanto in tanto trovo divertente affrontare test della personalità (o altro) che si trovano online, soprattutto se sono originali nella scelta delle domande o divertenti nell'esposizione.

Non credo ci si possa aspettare granché, in effetti, dalla maggior parte dei test: sono infatti facilmente inquadrabili in semplicistiche domande da psicologia da bar. Ogni tanto però capita anche di incontrarne qualcuno più interessante.

In questa collection cercherò di raccogliere i risultati dei test online da me affrontati. (Avendo cominciato a raccoglierli oggi, mancheranno ovviamente tutti quelli del passato, tranne quelli che mi ricorderò di aver fatto e dei quali riuscirò a risalire ai dati.)

Results for the “Quanto sei cattolico?” test: (link)


Il tuo non è un profilo cattolico. E il bello è che lo sai benissimo.
Hai deciso di fare questo test solo perché gli increduli sono molto curiosi, incrollabili esploratori del mondo, e probabilmente avevi già trovato lo spazio che fa per te prima ancora di avviare il questionario.
Se tuttavia, proprio perché curioso, vuoi anche sapere cosa insegnano oggi le gerarchie ecclesiastiche, puoi consultare l’elenco delle risposte corrette secondo l’attuale magistero cattolico.

Results for the “The Pierley/Redford Dissociative Affect Diagnostic” test: (link)

Quiet and very self-assured, you tend to keep your own council. Pragmatic and practical to a fault, you are not one to worry about the finer points of philosophical discourse. In fact, because you are very much an individualist, you often finds yourself at odds with the established truth or the wishes of the majority. You will often earn the wrath of an employer by taking upon yourself decisions which are rightly those of your manager. You are not one to take credit unless it is deserved. Similarly however, you will also not happily give credit where it is not due. In a romantic relationship you can be very frustrating. While you do care deeply and sincerely, and are willing to work at a relationship, your confidence in your own abilities can on occasion make it difficult to see the world from a partner’s point of view. Quiet and stoic at times, you can drive a more emotional individual completely up the wall. You can become overstressed and fatigued without knowing it. Taking time to rest between bouts of hard work can help to prevent a breakdown later on.

Results for the “Altamira” test: (link)

Tipo ITN

OrientamentoFunzione dominanteFunzione d'appoggio
Funzione terzaFunzione inferioreTendenza

Questo tipo introverso ha generalmente una mente originale ed è attratto da quello che potremmo chiamare il mondo delle idee. È intellettualmente curioso e audace. Possiede ottime capacità analitiche, è un eccellente stratega ed in grado di elaborare ottime soluzioni a problemi anche molto complessi. È anche un buon organizzatore. Ma, contrariamente al tipo pensiero estroverso, è meno impaziente nel tentare di implementare o realizzare le soluzioni che ha pensato. Si sente più a suo agio nel processo ideativo o creativo che nel processo realizzativo (che per definizione avviene nel mondo esteriore). A causa di questa caratteristica, ha tendenza a pensare molto prima di agire. Preferisce nettamente lavorare da solo o con poche persone che giudica competenti. Inoltre non ama saltare da un progetto ad un altro: preferisce (se può) affrontarne uno alla volta. Ha uno spirito critico molto sviluppato. Tende pertanto a essere un perfezionista. Si impone e impone degli standard molto elevati e detesta mostrare un lavoro che non abbia raggiunto gli standard che ha fissato. È anche una persona molto autonoma. Tra i 16 tipi, è probabilmente quello più individualista e indipendente di tutti. La sua funzione inferiore è il sentimento. Può quindi non prestare attenzione o magari non rendersi nemmeno conto dei sentimenti degli altri o delle reazioni emotive che suscita. Rischia quindi di apparire come una persona dura, “dal cuore di pietra”. È inoltre una persona riservata che non si lascia conoscere facilmente. La lontananza che mantiene dalla sfera emotiva può causargli delle difficoltà ed incomprensioni. In alcune occasioni compensa però questa sua tendenza con degli slanci che possono sorprendere chi non lo conosce bene. Può tendere ad essere molto astratto e teorico. Possiede una grande capacità di concentrazione ma non è un buon osservatore. Le sue analisi si basano molto di più sulle sue intuizioni, nelle quali crede molto, piuttosto che su una accurata osservazione di fatti e dettagli. Sul piano lavorativo dovrebbe evitare i lavori di routine. Non deve essere forzato. Può svolgere funzioni molto varie (per esempio in campo scientifico) e può essere prezioso per le sue idee e le sue capacità organizzative. Preferisce, come abbiamo detto, lavorare da solo o con gruppi ristretti di persone.

Results for the “What planet are you from?” test: (link)

You're from Saturn

You're steady, organized, and determined to achieve your dreams.

You tend to play it conservative, playing by the rules (at least the practical ones).

You'll likely reach the top. And when you do, you'll be honorable and responsible.

Focus on happiness. Don't let your goals distract you from fun!

Don't be too set in your ways, and you'll be more of a success than you ever dreamed of.

Eccezioni di misura

“L'eccezione che conferma la regola” è un modo di dire che suscita parecchi brividi dal punto di vista logico-matematico, come dal punto di vista scientifico; semmai, una eccezione dovrebbe negare la regola; le “eccezioni” vengono usate come controesempi per dimostrare che un teorema non è valido nel momento in cui una delle ipotesi viene ‘allentata’; le “eccezioni” sono usate nel metodo scientifico per falsificare una teoria, non per confermarla (anche se la sua falsificazione ci dice che la teoria era, appunto, scientifica).

In definitiva, cosa dovrebbe mai portare a dire che un'eccezione conferma la regola?

È abbastanza evidente che questo modo di dire nasce legato al mondo reale ed al suo essere molto meno ‘pulito’ e ‘regolare’ di quanto la matematica e la scienza possano descrivere e modellare; in qualche modo, diventa un modo per evidenziare il fatto che nella realtà vi sono delle regolarità “imperfette”; ed è anche un modo di dire che serve a giustificare quando si preferisce, in contesti specifici, non seguire certe regole.

In realtà, da un punto di vista logico-semantico, l'esistenza di un'eccezione conferma, effettivamente, l'esistenza di una regola, nel senso che senza una regola, non si potrebbe parlare di eccezione (eccezione a cosa?).

Eppure, anche in matematica è riuscita ad insinuarsi la possibilità di “situazioni eccezionali” in “deroga” alla liscia, astratta regolarità che normalmente si associa ad essa.

In effetti, la grande analisi del diciannovesimo secolo, che costituisce tuttora la sua parte forse più nota, diffusa ed usata (consciamente o inconsciamente), si occupa sostanzialmente di enti matematici (principalmente, funzioni) caratterizzate da grande regolarità: integrali e derivate, gli strumenti fondamentali dell'analisi, si appoggiano pesantemente a concetti quali quelli di continuità, differenziabilità, lipschitzianità … si richiede quindi che le funzioni siano senza ‘salti’, che il loro grafico sia ‘liscio’, senza spigoli o strane pieghe.

Ma sul finire del diciannovesimo secolo, alcuni matematici tra cui l'italiano Giuseppe Peano si dedicarono alla formalizzazione del concetto di misura (intuitivamente, l'equivalente della lunghezza dei segmenti, delle aree delle figure bidimensionali, dei volumi dei solidi).

La teoria della misura che si viene sviluppando negli anni successivi introduce quindi nel campo dell'analisi un concetto rivoluzionario, quello del quasi ovunque; non è più necessario che una funzione non abbia salti, che sia liscia: eccezioni alla regolarità delle funzioni sono permesse, purché queste siano ‘poche’ rispetto al comportamento ‘generalmente’ regolare della funzione.

La ‘pochezza’ (sic) delle eccezioni è strettamente legata alla teoria della misura, ma da un punto di vista intuitivo può anche essere un numero molto grande (potenzialmente infinito). Ad esempio, i numeri razionali sono ‘pochi’ rispetto a tutti i numeri reali (la misura di Lebesgue dell'insieme dei numeri razionali è zero), nonostante il fatto che la nostra mente possa enumerare una quantità infinita di numeri razionali e solo un pugno di numeri irrazionali.

Perché è interessante tutto questo? Se immaginiamo la vita di uomo come un ‘segmento temporale’, un insieme di istanti (con dimensione topologica 1), quest'uomo può affermare di avere quasi sempre ragione pur avento torto un'infinità di volte, a patto che l'insieme degli istanti in cui ha torto abbia misura nulla.

Non è meraviglioso tutto ciò?



Lo scopo di questi appunti è di discutere/valutare la possibilità di una struttura sociopolitica che abbia Internet come propria piattaforma, e di studiarne potenzialità ed esigenze (strumenti, modalità, etc).

Il nome —istocrazia— è stato scelto dopo una sudata ricerca (in Rete) per il termine del greco antico che meglio potesse indicasse la Rete nel nostro contesto corrente. La scelta, scartate le parole in greco antico che si riferissero a reti da caccia o pesca ed a ragnatele, è infine caduta su ἱστός, che letteralmente rappresenta (fonte) “ciò che sta dritto”, tipicamente l'albero della nave o il braccio di un telaio (che è l'idea che ci interessa qui); in greco moderno, la parola è ugualmente connessa con la rete, in termini di “ciò che collega cose o persone”; in italiano rimane in alcune parole (come istologia) per indicare tessuto.

Non posso dire di essere troppo convinto della scelta, anche se non è disprezzabile (ad esempio, si potrebbe parlare di istocrazia come strumento per la formazione di un nuovo tessuto sociale). Si accettano comunque suggerimenti per alternative.

Considerazioni a latere (margini di premessa)

(Chi non fosse interessato, può saltare direttamente agli elementi di istocrazia.)

Su qualcosa come l'istocrazia il sottoscritto rimugina in realtà da anni, in varie forme e con varî nomi. In verità, l'idea stessa del wok nasce anche come ‘piattafroma di prova’ per possibili strumenti che potrebbero essere proprî dell'istocrazia. (In effetti, sarebbe un interessante ‘social experiment’ vedere fin dove possa arrivare a diffondersi l'idea stessa dell'istocrazia, partendo da qui; ma non ha molto senso condurlo prima di rendere il wok più interattivo.)

Ma poiché mentre il sottoscritto pensa c'è chi fa, dal primo affacciarsi di queste idee (quando ancora non esistavano gli strumenti, ed Internet cominciava appena a diffondersi) ad ora c'è chi ha portato avanti progetti con cui l'istocrazia potrebbe confrontarsi, o ha usato metodi che l'istocrazia potrebbe sfruttare.

L'idea dell'istocrazia si potrebbe quindi far partire da alcuni eventi, movimenti, esperienze, situazioni degli ultimi anni che hanno cercato, in qualche modo, di fare leva sulla connettività delle nuove generazioni per spingere questa o quella agenda politica, sociale, personale.

Gli esempi che mi vengono in mente, non necessariamente da intendersi in positivo (anzi), sono il MoVimento 5 Stelle ed Obama. (Si evitino battute sulla scia di “dalle stelle alle stalle”, in qualunque direzione vengano intese.)

{ Altri possibili esempi: Occupy whatever? }

Il MoVimento 5 Stelle

Il MoVimento 5 Stelle è l'esempio brillante di come qualcosa che a parole sarebbe dovuto essere un “movimento dal basso”, apartitico e di larga partecipazione, si possa in realtà struttrare in maniera opposta, con direttive centralizzate, decisioni “dall'alto” e scarsa possibilità di dibattito interno (salvo sui temi “di richiamo”, signoraggi e scie chimiche varî) { Link ad esempi }.

Il fatto stesso che nel nome del movimento si metta in risalto la V del Vaffanculo Day aiuta a comprendere come esso sia più una piattaforma di sfogo per rabbia e frustrazione verso bersagli facilmente condivisibili, con un orgoglio da qualunquismo populista (populismo qualunquista?), che qualcosa con la minima speranza (e probabilmente intenzione) di costruire, in maniera ragionata e condivisa, qualcosa di solido e significativo.

{ Uso di Interent da parte del MoVimento 5 Stelle. }


Obama, intendendo qui non (tanto o solo) l'individuo in sé quanto chi nel suo entourage di questo, è invece un esempio brillante di uso su larghissima scala di tutti i mezzi di comunicazione messi a disposizione da internet per la costruzione di una vasta base di supporto. Obama (o chi per lui) è stato probabilmente il primo ad aver compreso le potenzialità propagandistiche dei social network, rispecchiando in rete le campagne informative fatte “dal vivo”, tese a coinvolgere quante più persone possibili.

Ovviamente, il successo di Obama non è dovuto solo al suo sagace uso dei nuovi mezzi di comunicazione di massa, ma anche dalla sua capacità di proiettare di sé un'immagine da «uomo vicino al popolo», sia su scala politica (es. la Open Government Initiative), sia su scala ‘domestica’ (es. la campagna Dinner with Barack).

Quanto questa immagine aderisca alla realtà, ovviamente, è tutto un altro discorso. Il punto chiave è che la strategia comunicativa di Obama è una strategia “vincente”.

Elementi di istocrazia

Dire semplicemente che l'istocrazia dovrebbe avere Internet come base ovviamente non significa dire un granché. Occorre addentrarsi sui come, ma anche sui cosa: come si organizza e gestisce una cosa del genere? cosa dovrebbe costruire, e come dovrebbe costruirlo?

E forse soprattutto: cosa sarebbe esattamente l'istocrazia? Una forma partecipativa di progettazione, un metodo di diffusione delle idee e delle proposte.

{ Approfondire. }

{ collegamento alle riflessioni su terza e quarta rivoluzione industriale, sia per quanto riguarda gli strumenti, sia per quanto riguarda le possibilità di diffusione; esempi (positivi) dagli Occupy e/o dalle rivoluzioni nei Paesi arabi (per questi ultimi indagare meglio su in quali casi e quanto abbiano contribuito le comunicazioni interpesonali di massa tramite social network e app per cellulari) }

Istocrazia e partecipazione

{ istocrazia come forma di partecipazione: ogni tema viene discusso e votato (scelte: sì/no/indifferente) da tutti; legami con open government e open source governance }


{ ragionevolezza: le proposte e le critiche sono argomentate e documentate }

{ responsabilità: proposte non anonime, argomentazioni e critiche non anonime, votazioni non anonime, storia delle proposte }

{ anonimato vs pseudonimato }

Gli strumenti

{ wiki distribuita e sotto revision control; ogni proposta ha la sua discussione, e può essere riaperta se qualcuno cambia idea o se nuovi arrivati contribuiscono nuovi argomenti/documentazioni }

{ perché distribuita: migliore gestione del DTDP, dando a tutti la possibilità di studiare le proposte, preparare risposte, argomenti e documenti secondo i proprî tempi }

{ problemi di scala: funziona facilmente bene per un pugno di persone, come scala a migliaia o addirittura milioni di persone? anche il self-hosting di ikiwiki (per dire) probabilmente non arriva a queste proporzioni; vedi anche gestione del kernel Linux, con centralizzazione più mirror/ridondanza, ‘luogotenenti’ etc, ma da fare evitando rischi derivanti da centralizzazione (che per Linux non sono rischi, ma al contrario punti di forza, pur senza violare la natura open di sviluppo del software); vedi anche Crowdsourcing e direttive }

Istocrazia e diffusione

{ istocrazia come forma di diffusione delle idee e delle proposte: il progetto iniziale parte da un piccolo gruppo di individui, si diffonde tramite ‘social graph’. Domanda: fin dove può arrivare questa diffusione, supponendo che parta da un solo individuo/un piccolo gruppo di individui della “periferia” dei social network? }


Dalla proposta alla realizzazione

{ come fare perché le proposte discusse ed accettate istocraticamente diventino realtà? }

Crowdsourcing e direttive

{ l'istocrazia come forma di crowdsourcing; opportunità o meno di qualche forma di dirigenza, esempi dal mondo dell'open source: progetti con comitati direttivi e/o “dittatori benevoli” vs progetti meno guidati (vedi ad es. questo post e relativi commenti) }

Appunti per un dibattito sull'anarchia

In questa pagina intendo raccogliere una serie di appunti per un possibile dibattito sull'anarchia. I contenuti della pagina sono (e saranno) variegati, non troppo ben organizzati, e spazieranno dai miei dubbi personali su alcune questioni ai più evidenti problemi argomentativi che mi capita di incontrare leggendo roba scritta da (sedicenti) anarchici e/o libertari.

Il materiale qui raccolto va considerato più come risultato di sessioni di brainstorming individuale che come riflessioni conclusive, e richiede come minimo approfondite analisi, chiarimenti e riscontri prima di andare a costituire parte solida di un pensiero o di un'argomentazione in qualche dibattito.


Sinceramente non sono molto convinto dell'opportunità di mettere questi contenuti online prima che il wok sia aperto ai contributi esterni, ma ho infine deciso di pubblicarli comunque, pur conscio di non lasciare (al momento) spazio (locale) al contraddittorio (in forma soddisfacente), per una serie di motivi:

  • tendo a dimenticarmi le cose: ricostruire le riflessioni già fatte, in parte pubblicate altrove sotto forma di commento, in parte mai trascritte, mi è costato un weekend esteso (tre giorni) di lavoro, senza peraltro giungere a compimento (come mostrato dai molti spazi lasciati “da completare”);
  • devo interrompere il lavoro di scrittura con l'inizio della settimana lavorativa, e mi piace avere un punto fermo solidamente registrato;
  • la pubblicazione darà comunque la possibilità ad altri di leggere con calma la valanga di contenuti qui depositati, per studiarli, analizzarli, giudicarli ed eventualmente preparare (sempre con calma) risposte, commenti, suggerimenti, correzioni, opinioni;
  • c'è sempre la possibilità di risposte per vie traverse (es. FriendFeed), anche se per qualcosa di così complesso preferirei non venisse utilizzata un canale comunicativo così ridotto e fragile;
  • per chi fosse interessato ad accendere il dibattito fin d'ora potrei rendere disponibile il sorgente del wok, aprendo così il sito ad una delle previste forme interattive (la forma nerd, il wok come progetto ‘open source’ sotto version control).


Una premessa è d'obbligo: la mia cultura sull'anarchia è (al momento) estremamente ridotta. Visto il notevole rallentamento dei miei tempi di lettura ‘classica’ (con Logica della scoperta scientifica sul davanzale della finestra accanto alla tazza del cesso, per intenderci), chissà quando arriverò a leggere qualche pilastro della teoria anarchica (Godwin? Proudhon? Stirner? Malatesta?); nel frattempo, la mia principale fonte d'informazione è Internet, per lo più nella forma dell'immancabile Wikipedia da prendere con le pinze e di qualche blog letto saltuariamente e per vie traverse.

Devo dire subito che quel poco che leggo (al di fuori della didascalica Wikipedia) non è esattamente soddisfacente, dal punto di vista intellettuale: tra fallacie argomentative e metafore che centrano il punto come le mele stanno ai triangoli1, definizioni a dir poco non condivisibili ed una generale superficialità nell'affrontare questioni che a mio parere sarebbero invece di cruciale importanza per una discussione seria sulla fondatezza di un'ideologia (come ad esempio quella anarchica), mi ritrovo spesso più perplesso che convinto.

È anche vero, d'altronde, che la mia esperienza personale mi ha fatto più volte incontrare sostenitori di idee da me pienamente condivise a cui potrei fare critiche non dissimili da quelle appena sollevate allo scarso (in termini quantitativi) materiale che ho letto di, da, e su libertari ed anarchia; e se qualcosa questo mi ha insegnato è che non si può limitare la valutazione di un'idea alla qualità o alla capacità argomentativa di alcuni suoi sostenitori. (Se pur con le dovute cautele che non può non prendere chiunque abbia letto l'importantissimo saggio sulla stupidità umana di Carlo Maria Cipolla il cui testo è fortunatamente di dominio pubblico).


È ben inteso che se non c'è accordo sul significato delle parole che si usano e sui concetti di cui si parla, difficilmente si potrà sperare non dico di raggiungere un accordo, ma nemmeno di avere una discussione minimamente costruttiva. Senza finire con l'impelagarci nei paradossi autoreferenziali della filosofia linguistica ed ignorando le inevitabili conclusioni sull'incomunicabilità2, c'è quindi un minimo di termini che sarebbe il caso di cercare di definire.

Stato, governo, nazione, società

Ho avuto l'impressione, leggendo qui e là, che qualche libertario avesse le idee un po' confuse sulle differenze tra questi concetti. La confusione è in parte imputabile ad una effettiva ambiguità semantica (soprattutto in presenza di enti quali Germania, USA e UAE), in parte ad identificazioni cui la storia degli ultimi due-trecento anni ci ha abituato (le famose idee sullo Stato-nazione dell'Ottocento), in parte a grossolana superficialità (uno Stato non è il proprio governo, nemmeno quando martellante propaganda mediatica vorrebbe convincerci del contrario), e forse anche grazie al contributo di qualche problema di traduzione (ad esempio dall'uso angosassone di nation per supplire alla mancanza di un termine che ben traduca il concetto di Volk o di popolo).

Lo Stato è un ente giuridico, associato (generalmente? sempre?) ad un territorio, la cui esistenza è legata in parte alla capacità dei suoi cittadini di autodeterminarsi ed in parte alla volontà degli altri Stati di riconoscerne l'autonomia. La ricorsività della definizione non è tanto un problema logico quanto soprattutto una questione pratica, come dimostrano casi che vanno dalla Cina (continentale) vs Taiwan ai Paesi Baschi passando per Kurdistan e Bretagna, giusto per citarne i primi che mi vengono in mente.

Il concetto di nazione è ancora più ambiguo di quello di Stato, ed aggiunge ai fattori territoriali anche questioni di identità (o presunte tali) culturali, etniche e/o religiose che ne caratterizzano (o caratterizzerebbero) i popoli.

Il governo è l'ente che in uno Stato detiene il potere esecutivo. Esso può essere costituito da una o più persone (generalmente cittadini dello Stato stesso, ma sarei curioso di sapere se esistono controesempi), e può anche detenere altri poteri. Un aspetto importante da sottolineare è che lo Stato non è il proprio governo, ed il governo di uno Stato non è lo Stato stesso. Persino nel caso di assolutismi, lo Stato è i propri cittadini, anche quando questi, per paura o per pigrizia, subiscano incondizionatamente lo strapotere di chi li governa.

(Una metafora: una famiglia è i propri membri; anche quando gestita da un capofamiglia dispotico e violento, essa non si riduce al capofamiglia stesso.)

Domande possibili, da affrontare oltre le definizioni:

  • è possibile che il governo coincida con l'intera popolazione dello Stato? (Credo che in Islanda ci vadano molto vicini)
  • è possibile che il potere esecutivo venga esercitato in una forma che rispetti le libertà individuali?

Infine, il termine più importante, e forse più difficile, tra questi è quello di società. Specificamente, vorrei dare a questa parola un significato un po' più ampio di quello formalmente inteso. Società sarebbe quindi ogni gruppo di individui che interagisce (direttamente o indirettamente) in maniera abituale (anche quando sporadica). In tal senso, società è termine più generale di ciò che potrebbe essere descritto come comunità, in cui si legge invece anche un esplicito senso d'identità, ed è rappresentata, per ciascun individuo, dalla sua sfera d'interazione (abituale).

Ho coscienza del fatto che una tale definizione di società va un po' fuori dai margini della notazione usuale, ma la userò comunque in assenza di un altro termine (possibilmente di uso corrente) che possa indicare quanto descritto. (Suggerimenti ben accetti.)

Anarchia, anarchici e libertari

Ovviamente, la definizione più importante se si vuole dibattere sull'anarchia è cosa sia l'anarchia stessa. A questa si aggiunge un mio dubbio personale che ultimamente credo risolto: c'è differenza tra anarchici e libertari? Mi sembra di capire che siano sostanzialmente la stessa cosa, e che il termine “libertario” sia nato per distinguere l'anarchia come ideologia politica ‘positiva’ dall'anarchia volgarmente intesa negativamente come caotico e selvaggio free-for-all senza regole (tranne forse la più animalesca ed istintiva “legge del più forte”).

O forse c'è una qualche distinzione possibile sui principali campi toccati dall'ideologia, sociopolitica in un caso ed economica nell'altro. Ma per il momento scriverò col presupposto che i due termini possano essere usati intercambiabilmente, salvo dover rivedere la semantica nel caso qualche differenza emergesse.

Tornando all'anarchia, sarei alquanto sorpeso se venissi a scoprire che esiste un “pensiero unico anarchico”, un'ideologia complessa e dettagliata condivisa fin nei minimi particolari (teorici e pragmatici) da tutti gli anarchici; mi aspetterei anzi che ci siano tante teorie quanti libertari3. Immagino però ugualmente che esista un nucleo di principî fondanti su cui tutti gli anarchici si ritrovano d'accordo, un “massimo comun denominatore” del pensiero anarchico.

Nella mia limitata conoscenza, penso che un buon punto di partenza sia quella sintetica definizione data da Proudhon di anarchia come «ordine senza potere», una definizione che mi piace perché in poche parole racchiude due capisaldi che possono facilmente essere considerati i pilastri (in senso positivo da un lato e negativo dall'altro) del pensiero anarchico:


la rottura con il significato negativo fino ad allora associato al termine, quindi non più anarchia come caos, assenza di regole;

senza potere

la possibilità (se non la necessità, addirittura) che regole ed organizzazione emergano senza prevaricazione, nel rispetto della volontà e della libertà dell'individuo.

Meno sinteticamente, possiamo quindi dire che la filosofia anarchica è incentrata sulla possibilità di una società di organizzarsi senza imposizioni, senza coercizioni, e quindi spontaneamente e soprattutto con l'accordo dei partecipanti. Con una banalizzazione che ai libertari sicuramente non piacerà, l'anarchia potrebbe quindi essere vista, da questo punto di vista, come un raffinamento della democrazia dove le uniche regole siano quelle accettate all'unanimità. Ma di questo si parlerà in dettaglio più avanti.

Un'attenzione particolare, inoltre, merita il concetto di potere. Si può infatti vedere il potere in almeno due forme; in un senso più specifico e restrittivo, lo si può intendere nella sua forma coercitiva, il potere come autorità imposta, come violazione della volontà (altrui). Esiste però anche una forma di potere che può giungere agli stessi obiettivi (intendendo come obiettivo il far fare ad altri qualcosa che loro spontaneamente non farebbero) in maniera che potremmo dire morbida, in alcuni casi persino indiretta: è il potere esercitato dal carisma, dal fascino, o anche semplicemente dalla capacità di convincere —o di imbrogliare.

Se è abbastanza evidente nel pensiero libertario il rifiuto del potere nel suo significato più ristretto, il caso del senso più ampio è invece più incerto, ed una sua analisi rischia di impelagarsi su questioni filosofiche circa la natura della volontà e delle sue violazioni. Ma anche di questo si parlerà in dettaglio più avanti.

{ Esistono altri principî fondanti del pensiero anarchico, principî che non possono essere derivati da quelli appena esposti, ovvero il rifiuto della prevaricazione (ed il rispetto della volontà) non separato dalla ricerca dell'ordine? }

Regole e comunità

Fatto salvo il caso oserei dire irrealistico del singolo individuo che non abbia mai alcuna forma di interazione, diretta o indiretta, con un altro (e per il quale quindi non si pone nessuna delle questioni discusse in questi appunti), la maggior parte di noi si trova a vivere almeno parte della propria vita come membro di una società, intendendo tale termine nel senso più generico possibile discusso nelle definizioni.

Individui le cui interazioni includano un senso di identità come gruppo e/o una forma di vincolo reciproco costituiscono una comunità. Le comunità hanno regole che possono essere scritte o non scritte, immutabili o mutabili, regole nei confronti della quale i membri hanno (o ci si aspetta abbiano) un atteggiamento generalmente positivo: esse vengono riconosciute come generalmente valide, e seguite salvo casi tipicamente eccezionali, accettati o giudicati secondo limiti di tolleranza che sono specifici della comunità stessa. { Collegamento a discussione su violazione e mutamenti delle regole }

Alcune importanti osservazioni: l'adesione ad una comunità porta con sé implicitamente l'accettazione delle regole della comunità stessa. Inoltre, l'anarchia non è incompatibile con l'esistenza di comunità: a condizione che l'appartenenza alla comunità sia una libera scelta individuale e che le regole della comunità stessa non violino i principî fondamentali dell'ideologia libertaria, non è irrealistico concepire l'idea di una comunità anarchica.

Vorrei adesso entrare nel dettaglio di un problema specifico che ritrovo spesso discusso da libertari, un caso da cui prendere spunto per un'ulteriore indagine sulla questione dell'esistenza delle comunità e del senso di appartenenza.

Tasse e furti

Uno dei punti più caldi delle “lamentele libertarie” che trovo su internet è l'equazione tra tasse e furto. A difesa di questa tesi si trovano metafore che vanno dal ridicolo all'assurdo passando per l'intellettualmente disonesto (vuoi per estremizzazioni, vuoi per oculata omissione di dettagli importanti).

Oltre ad essere deboli dal punto di vista argomentativo, le presentazioni sulla tassa come furto da me incontrate soffrono a mio parere di un altro grave problema: spostano l'attenzione da un problema centrale e di grande importanza ad un suo corollario periferico. Anche quando lo si voglia fare per semplici intenzioni esemplificative (uno dei modi in cui lo Stato opprime gli individui4), questo approccio ha nel migliore dei casi all'incirca la stessa potenza argomentativa dell'indicare un dito che indica la Luna dopo aver indicato la Luna stessa. E questo, s'intende, quando presentato con solidità e perizia.

L'idea di fondo della tassazione come furto, se ho capito correttamente gli argomenti incontrati, è che essa è imposta (aggettivo, nel senso prevaricativo del termine più che in quello burocratico che da esso deriva): è cioè un trasferimento di beni mobili dal tassato allo Stato (o al comune o alla regione etc), trasferimento che avviene contro la volontà del tassato. (Sia quindi inteso che si parla qui di tasse nel senso specifico di imposte (stavolta sostantivo, nel senso quindi burocratico), e non con il significa più generico che può essere utilizzato anche per forme di tassazione volontaria.)

In tal senso, si noti, le tasse sarebbero un'imposizione a prescindere dal fatto che se ne abbia poi un ritorno in termini di servizi (istruzione, sanità, sicurezza, sussidi di disoccupazione, borse di studio), nonché a prescindere dalla qualità dei servizi stessi (qualità peraltro generalmente non omogena nel territorio di uno Stato, per non parlare delle differenze tra Stati diversi): non essendo una contribuzione volontaria, con la resa dei servizi ci avvicineremmo magari alla filosofia dell'estorsione più che a quella dello scippo, ma resteremmo comunque nell'ambito del, diciamo così, “reato contro il patrimonio”.

Nonostante ciò vi sono comunque libertari che sembrano quasi ansiosi di sottolineare, ogni qualvolta possano, quanto inefficiente sia il rendimento delle tasse, in termini di rapporti costi/benefici, vuoi con esempi di mala amministrazione vuoi sulla base di questa o quella (discutibile) teoria economica5.

Sarebbe interessante capire se l'evidenziare l'inefficienza tasse/servizi sia semplicemente un “di più” («non solo lo Stato ti deruba/estorce con le tasse, ma per giunta questi soldi li spende male»), se abbia un mero valore esplicativo («io le tasse non voglio pagarle perché sono un modo inefficiente di avere servizi», quindi ricollegandosi alla questione appunto della volontà), o se abbia invece un intento argomentativo di tipo rafforzativo. Mi auguro che non si dia il terzo caso perché i cattivi esempi non sono argomenti validi.

(Mi piacerebbe avere anche una statistica della diffusione delle idee anarchiche nei vari Stati, da correlare all'efficienta dello stato sociale; non sarei sorpreso di scoprire una correlazione inversa, per esempio con gli USA al primo posto per diffusione delle idee libertarie e le socialdemocrazie nordeuropee all'ultimo. Penso comunque che un lavoro del genere dovrebbe anche tener conto di fattori correttivi quali il livello di istruzione.)

L'efficienza del sistema tasse/servizi è una questione di tipo prettamente economico che, lungi dall'essere immeritevole di attenzione, tocca però solo tangenzialmente la questione sociale che dovrebbe essere invece di centrale attenzione dal punto di vista libertario, in questo senso: appurato che un individuo saggio che fosse convinto dell'opportunità di una contribuzione individuale per un servizio collettivo accetterebbe volontariamente di pagare detta contribuzione, lo stesso individuo, libertario, sarebbe comunque contrario ad una imposizione della contribuzione (a sé o ad altri) in violazione della volontà del (potenziale) contribuente.

In parole povere: se anche il sistema tasse/servizi fosse efficiente, se anche fosse per chiunque il sistema più efficiente per ottenere servizi (ipotetica molto del terzo tipo), la tassazione (non volontaria, anzi in quanto non volontaria) sarebbe comunque un sopruso ed una violazione della libertà individuale. Vorrei quindi tornare al punto che dovrebbe essere cruciale (se non forse l'unico) nel discutere di tasse dal punto di vista anarchico: l'imposizione.

In realtà, un elemento chiave che manca sia dalle metafore noir a suon di pistole puntate alla tempia sia nelle argomentazioni un po' più serene e puntuali è che le tasse da pagare sono una delle regole di una comunità (formale) cui il contribuente (formalmente) appartiene: sono quindi legate al suo essere cittadino di un particolare Stato, residente in un particolare comune, etc6.

Ora, è ben inteso che, prescindendo dal caso specifico Stato/tasse, nell'accettare di far parte di una comunità (che abbia regole ben precise) se ne seguano le regole. In altre parole: nella misura in cui un individuo accetta di far parte di una comunità, le regole della stessa non possono essere considerate imposizioni sull'individuo.

Come ho già detto, questa piccola ma significativa precisazione da un lato invalida l'argomentazione libertaria che classifica le tasse come furto in quanto contro la volontà; nel farlo, però, spalanca le porte ad un discorso che scende molto più addentro alla questione nella quale l'apparente imposizione delle tasse è solo un superficiale sintomo; questione che tratterò tra poco.

Per concludere provvisoriamente il discorso sulle tasse, vorrei però rimarcare che quanto detto sopra è alquanto generico, e non tiene conto ad esempio della diversa natura che diverse tasse possono avere. In particolare, non tiene conto della differenza tra quelle che il contribuente versa direttamente in quanto tali, e quelle pagate indirettamente.

La differenza non è insignificante perché, per esempio, anche un turista straniero (ovvero non cittadino) paga l'IVA allo Stato in cui sta facendo turismo qualora usufruisca di servizi o acquisti beni che non ne sono esenti. Tuttavia, anche in questi casi può generalmente farsi un discorso specifico che evidenzi la debolezza della classificazione della tassa come furto.

Sempre restando nel caso dell'IVA, si hanno per esempio almeno due ragioni. La prima, di ordine burocratico, è che non essendo cittadini si può chiedere il rimborso dell'IVA7 (che non è proprio la stessa cosa che non pagarla, ma ci va comunque molto vicina). La seconda è che è se pur vero che l'acquirente non è cittadino dello Stato, lo è invece il venditore; il pagamento dell'IVA, pertanto, se non è legato alla volontà dell'acquirente, lo è a quella del venditore. Ma si entra qui nell'ambito delle dinamiche interpersonali, che è una questione dell'ideologia anarchica che merita un discorso a sé.

Comunità e appartenenza

Le riflessioni sulla natura delle tasse mostrano come il loro carattere apparentemente vessatorio sia in realtà soltanto un sintomo molto superficiale di qualcosa di ben più profondo, ovvero la qualità e la natura dell'appartenenza comunitaria.

Le tasse sono parte delle prescrizioni dettate dalle regole di appartenenza a specifiche comunità (Stati, comuni, etc) ai rispettivi membri (cittadini, residenti, etc). Porre la questione in termini di scelta del pagamento o meno delle tasse è quindi improprio: in realtà la questione dovrebbe vertere sulla scelta di appartenere o meno a ciascuna specifica comunità6.

In altre parole, la questione non è se il singolo individuo possa scegliere di pagare le tasse o meno, bensì se lo stesso abbia la possibilità di scegliere se far parte della comunità che ne richiede il pagamento oppure no. S'intende che laddove l'individuo possa scegliere, una sua eventuale scelta in negativo comporterebbe automaticamente la decadenza non solo dei doveri prescritti dalle regole di appartenenza della comunità in questione (ed in particolare le tasse), ma anche di tutti i diritti e privilegi garantiti dalla stessa.

Questo apre almeno due filoni di analisi: uno teorico focalizzato sulla compatibilità tra il pensiero (ed il vivere) libertario con altre forme di interazione sociopolitiche (discorso rimandato ad altrove { da determinare il paragrafo appropriato nella sezione Condizioni di realismo, quando sarà scritto }); uno pratico incentrato sulla possibilità di un vivere libertario ora. In questo senso i ragionamenti qui di seguito non saranno legati tanto ad un “come le cose dovrebbero/potrebbero essere”, ma piuttosto fortemente a “come le cose sono”.

Un punto indiscutibile è che nella situazione corrente la maggior parte di noi (libertari e non) si trova ad essere membro di varie comunità non per liberta scelta di adesione individuale, ma per questioni diciamo così storico-geografiche: per via del luogo dove siamo nati e/o cresciuti e/o quello in cui abitiamo, o per via della nazionalità dei nostri genitori8.

È pur vero però che, non avendo potuto scegliere di aderire a queste comunità, possiamo generalmente scegliere di uscirne (un sub-ottimale opt-out invece del (per alcuni) preferibile opt-in), seguendo le necessarie procedure burocratiche (rinuncia alla cittadinanza, cancellazione della residenza, etc) prescritte dalle regole delle comunità stesse per il riconoscimento della fuoriuscita del membro.

La questione non è purtroppo sempre lineare ed immediata. Probabilmente come reazione all'esperienza della prima metà del secolo scorso (lettura consigliata), ad esempio, i regolamenti di alcuni Stati rendono infatti difficile divenire apolidi; non so ad esempio se sia nemmeno possibile (o quanto sia facile), nel contesto legislativo attuale, rinunciare alla cittadinanza italiana senza averne un'altra (chi vuole può darsi alla lettura del testo della L.91/1992 come emendata dalla L.94/2009 o cercare altri regolamenti rilevanti).

Supponendo comunque che si riesca a rescindere l'appartenenza a quelle comunità cui non si vuole appartenere, il dopo è pure tutt'altro che semplice. In questo caso, il cardine dei problemi è il controllo territoriale: non esiste infatti (o se esiste io personalmente non ho idea di dove trovarla) un'area di terre emerse su cui qualche Stato non dichiari possesso; semmai, è facile trovarne su cui a pretendere controllo sono più d'uno (ovviamente in conflitto tra loro). Tra le possibilità abbiamo quindi (intendendo l'appartenenza di un luogo ad uno Stato in termini di pretese di controllo dello Stato sul luogo):

  • cercare posti fuori dal controllo di qualunque Stato (se ne esistono);
  • vivere in un posto in cui il controllo dello Stato cui appartiene sia di fatto inesistente (area remota e/o Stato molto liberale);
  • vivere in un posto in barba a qualunque forma di controllo dello Stato cui appartiene (squatting);
  • dichiarare l'indipendenza: idea che si potrebbe rendere più realistica portandola avanti non da singoli individui ma con un gruppo di persone, optando ad esempio per una secessione con la conseguente costruzione di uno Stato anarchico (sulla possibilità che ‘Stato anarchico’ sia o meno una contraddizione si parlerà in dettaglio insieme alle altre Condizioni di realismo).

Alcune delle strade proposte possono essere perseguite senza spostarsi, altre richiedono invece, oltre allo sforzo di costruire un tipo di vita diversa, anche un trasloco. Una delle obiezioni che viene sollevata dai libertari è: «perché dovrei essere io a spostarmi?»; la risposta prima, come già detto sopra sulla necessità di scegliere di lasciare una comunità piuttosto che di entrare a farvi parte, è che qui stiamo parlando di come stanno le cose adesso, e non di come dovrebbero essere.

Vi è però a questa domanda anche una risposta più teoretica, che verrà discussa più avanti insieme al resto, e riguarda il fatto che non tutto nella vita di un libertario è concretizzabile secondo la sua volontà, neanche nelle condizioni più ideali: talvolta, non è nemmeno suscettibile di scelta (esempio banale: non si sceglie di nascere né da chi si nasce né dove si nasce, e per il primo periodo di vita nemmeno dove si cresce). E una doccia di realismo non solo è più sana di un immaturo lamentarsi del fatto che le cose non siano (o peggio, non possano essere) come si vorrebbe che fossero, ma prepara anche a riflettere sulla necessità del compromesso richiesto anche nelle più ideali società anarchiche.

Una nota sul pragmatismo anarchico

È comprensibile che, di fronte all'immensa difficoltà, quando non addirittura alla materiale impossibilità, di perseguire nella vita quotidiana gli ideali libertari, si scelga piuttosto di accettare le costrizioni imposte con la stessa convinzione con cui si rinuncia a vincere le inoppugnabili leggi della fisica e della natura, trasformando così in apparente vittoria ciò che altro non è che una solida sconfitta: un passo psicologicamente (o se vogliamo ‘spiritualmente’) importante dall'impotente frustrazione dell'incapacità di realizzazione dei propri ideali alla pretestuosa arroganza di sentirsi padroni del proprio destino per aver dichiarato propria una scelta di fatto obbligata.

(E non ricordo ora quale filosofo parlasse dell'illusoria libertà che può sentire un sasso gettato per aria, sentendosi privo di vincoli ma non avendo altra via che quella prescrittagli dalla cosmica legge di gravità.)

Scelta, peraltro, di cui non si discute qui la saggezza, ma che certamente avrebbe ben più valore se, piuttosto che mascherarsi nell'ipocrita finzione di una vittoria, si motivasse sinceramente come riconoscimento della sconfitta (e del conseguente abbandono) di un'ideologia.

Regole e violazioni

{ Regole, violazioni, liberalizzazioni. Esempi dal copyright, copyleft, Creative Commons, etc }

Anarchia, socialismo ed individualismo

Non sarà sfuggito a chi legge questi appunti che una grande attenzione è stata posta finora sugli aspetti sociali dei rapporti tra individui, ed in particolare sulla natura e sulla struttura delle comunità.

In effetti, quando ho cominciato a stilare questi appunti l'attenzione alla comunità è venuta in maniera in un certo senso spontanea. Più recenti discussioni mi hanno però portato a riflettere con maggiore attenzione, ed in maniera più esplicita e diretta, su questo aspetto.

In prima battuta, l'osservazione si è concretizzata nella constatazione che il pensiero anarchico storico è di stampo principalmente socialista, mentre il pensiero libertario contemporaneo sembra essere piuttosto di stampo individualista.

La questione ovviamente non è così semplice: in tempi storici sono esistiti anarchici individualisti come al giorno d'oggi non mancano libertari di stampo socialista.

È un po' un peccato, perché con quella che invece dovrà essere considerata una forzatura semantica si poteva attuare una restrizione di significato considerando anarchico il pensiero di tipo sociale e libertario quello individualista.

Peraltro, ho il sospetto che, per dire, un Max Striner, da molti considerati uno dei pilastri del pensiero anarchico individualista, sarebbe piuttosto d'accordo con questa scelta di termini, viste le critiche da lui stesso mosse nei confronti del pensiero anarchico (sociale).

La distinzione tra le due forme di pensiero sono tutt'altro che sottili.

Nella prospettiva del pensiero anarchico sociale, infatti, il potere dell'uomo sull'uomo è vista come la causa prima delle diseguaglianze sociali e lo Stato come principale strumento per l'esercizio di questo potere; l'abbattimento dello Stato è quindi un obiettivo intermedio da perseguire dell'ottica di un fine ulteriore: l'uguaglianza sociale.

Per contro, il pensiero libertario di stampo individualista pone la propria attenzione sul singolo individuo; l'aspetto sociale è sostanzialmente secondario, ed è anzi spesso visto in termini antagonistici (implicitamente, quando non esplicitamente).

{ Approfodondire: interessi dell'invidivuo contro quelli (del resto) della comunità; interessi della comunità come interessi di ciascuno degli individui appartenenti alla comunità stessa; se prevale l'interesse della comunità è male dalla prospettiva individualista (potere dell'uomo —gli individui della comunità— sull'uomo —l'individuo—); se prevale quello dell'individuo è male dalla prospettiva sociale (potere dell'uomo —l'individuo— sull'uomo —gli individui della comunità—). Max Stirner, il might makes right e il darwinismo sociale. }

Condizioni di realismo

Come ho scritto altrove, l'analisi di un'ideologia (e quindi in particolare di quella anarchica) non può prescindere da tre questioni fondamentali, che nel caso specifico si possono così riassumere:

  • può (e se sì, sotto quali condizioni) esistere una società anarchica?
  • può (e se sì, sotto quali condizioni) continuare ad esistere una società anarchica?
  • può (e se sì, sotto quali condizioni) una società anarchica subentrare ad una preesistente società di stampo diverso?

È abbastanza evidente che se la risposta ad una qualunque delle tre domande qui sopra fosse negativa, l'ideologia anarchica perderebbe molto della propria forza, nonché della propria credibilità, sebbene sia possibile comunque prenderne alcuni elementi specifici che possano avere un valore intrinseco o quanto meno slegato dal loro essere parte di questa particolare ideologia.

{ Partire da un'analisi dei principî fondamentali del pensiero anarchico. Punti importanti su cui ricordarsi di approfondire: coerenza interna dei principî, realismo; realizzabilità in caso di principî universalmente condivisi vs realizzabilità in caso di principî non condivisi; indagine sulla risoluzione dei conflitti tra anarchici; risoluzione dei conflitti con altre ideologie; cambiamenti di opinione; violazione di contratti, regole, principî (in ordine di approfondimento); analisi della possibilità della degenerazione; è possibile qualcosa che alla fine non si riduca alla legge del più forte? Studio separato per il caso delle nuove generazioni: cultura vs natura; quando un individuo è un individuo?; infanzia e maturazione, saggezza, coscienza, ‘maggiore età’. Il problema dell'educazione, del pensiero, della formazione; leader e seguaci (collegato al problema della degenerazione). }

  1. rubo l'espressione ad uno dei dipendenti Microsoft che lavorò ai filtri di conversione per Word dei documenti WordPerfect; per spiegare quanto poco fossero omogenei i due modi di descrivere un documento, decise di fare un passo avanti rispetto al classico modo di dire anglosassone che prevede invece un confronto tra mele ed arance. ↩

  2. nulla è conoscibile, ciò che è conoscibile non è comunicabile, e ciò che viene comunicato non viene compreso. O altre varianti sul tema. ↩

  3. ma è pur vero che lasciate libere di agire, le persone tendono ad imitarsi a vicenda. ↩

  4. si noti l'uso del termine individuo invece di quello di cittadino. ↩

  5. in realtà, devo ancora trovare una teoria economica che non sia quanto meno discutibile. E non sono solo io a pensarlo se c'è un adagio secondo cui economics is the only field in which two people can win a Nobel Prize for saying exactly the opposite thingl'economia è l'unico campo in cui due persone possono vincere un Nobel per aver detto cose diametralmente opposte. { trovare fonte } ↩

  6. per puntualizzare, né qui né altrove si vuole sottintendere che il pagamento di tasse sia una regola che debba essere presente in ogni comunità, ma solo che di fatto è una regola di alcune (classi di) comunità cui gli individui apprtengono ora. Non è neanche detto —in linea di principio— che uno Stato o altra unità amministrativa debba richiedere il pagamento di tasse (ovvero: ipoteticamente parlando potrebbe esistere uno Stato che tra le proprie regole non includa il pagamento di tasse). ↩  ↩

  7. cosa che so per esperienza; ho infatti chiesto ed ottenuto il rimborso dell'IVA pagata in Canada, con una semplice visita all'apposito ufficio in aeroporto. ↩

  8. con una varietà di regole che porta a situazioni che hanno del paradossale, come un'Italia che considera automaticamente cittadini i discendenti di emigrati, che non parlano una parola della lingua e non hanno mai messo piede sul territorio dello Stato nemmeno in visita turistica, ma richiede un iter burocratico pluriennale per i figli di immigrati che, pur essendo nati e cresciuti in Italia e conoscendone lingua e cultura a volte meglio di molti cittadini, rischiano di venir espulsi come ‘clandestini’ al raggiungimento della maggiore età. ↩

Scoperte sconvolgenti
  • information è un plurale collettivo [2010-11-22]
  • GIF (Graphic Interchange Format) si pronuncia con la G dolce (“jiff”) [2010-11-26]
  • si scrive accommodation e non accomodation [2010-11-29]
  • il costume adamitico non viene (direttamente) da Adamo, bensì dagli adamiti [2010-12-05]
  • si crive embarrassing e non embarassing [2011-12-14]
  • calzoni: praticamente delle grosse calze (scoperto vestendomi ed infilandomi una gamba di pantalone, dicendo «mi infilo un calzone» e pensando «devo mettermi anche le calze») [2011-12-24]
Appunti di logica argomentativa

Fallacia ≠ falsità

Il semplice fatto che alcune (o anche tutte) le argomentazioni siano sbagliate (logicamente fallaci) e/o che alcune (o anche tutte) le premesse siano errate non implica necessariamente che la conclusione sia errata o falsa. Implicano semplicemente la non sostenibilità logica della tesi secondo le premesse e le argomentazioni apportate.


  • Napoleone era inglese, gli inglesi erano còrsi, Napoleone era còrso. (Premesse false, logica corretta, conclusione vera.)
  • Napoleone era umano, i còrsi erano umani, Napoleone era còrso. (Premesse vere, logica errata, conclusione vera.)
  • Napoleone aveva i capelli verdi, i còrsi avevano i capelli verdi, Napoleone era còrso. (Premesse false, logica errata, conclusione vera.)

Due importanti implicazioni di questo fatto:

  • per controbattere una tesi non è sufficiente dimostrare la fallacia del ragionamento che vi ha condotto o la falsità di qualche premessa;
  • chi evidenzia la fallacia del tuo ragionamento o la falsità di almeno una tua premessa non necessariamente è in disaccordo con te o vuole sostenere una tesi opposta alla tua.

Permettere ≠ costringere

Una fallacia argomentativa sorprendentemente diffusa negli integralismi religiosi, nei fanatismi di qualunque ideologia, ed in generale presso molti di coloro che sostengono che X debba essere proibito (per qualunque valore di X: matrimonio tra persone di razza diversa o dello stesso sesso, adozione, aborto, eutanasia, consumo di questa o quella sostanza, non indossare un certo tipo di vestiario, …) è quella di rispondere a chi sostiene che X vada permesso come se questi pensasse che X debba essere obbligatorio.

Più raramente si riscontra la fallacia simmetrica, ovvero di equiparare il permettere che non X all'impedire X (esempio: indossare un certo tipo di vestiario, fare il militare).

In entrambi i casi, l'argomentazione fallace nasce in risposta ad un'osservazione su come la proibizione (o l'obbligo, nel secondo caso) sia, in quanto imposizione, un sopruso, e si sviluppa sostenendo che il permettere (quanto proibito, o di non fare quanto imposto) sia a sua volta un sopruso non meno grave del “presunto” sopruso coercitivo. (Più spesso, nello specifico, si articola sottolineando come il permettere sia un sopruso e sottintendendo che quanto proibito/imposto invece non lo sia.)

Non credere che ≠ credere che non

La situazione è simile a quella del caso precedente, ma più sottile e più difficile da identificare, per via della frequente effettiva somiglianza delle due posizioni e del loro forte contrasto con la posizione del credere.

Ringrazio QualiaSoup per aver attirato la mia attenzione sulla necessità di evidenziare questa differenza, e per aver fornito qualche esempio molto utile1:

  • credere che una persona non sia innocente (che equivale a credere che sia colpevole) vs non credere che una persona sia innocente (ma nemmeno che sia colpevole: semplicemente, non avere un'opinione in merito);
  • credere che non esista alcun dio (ateismo ‘forte’) vs non credere che esista un dio (ateismo ‘debole’).

Purtroppo, grazie all'ambiguità della lingua italiana, nel linguaggio comune l'espressione “non credere che” viene frequentemente usata per indicare la ben più stretta condizione di “credere che non”, che viene usata nella sua espressione naturale solo in rari casi, quando si voglia espressamente sottolineare la convinzione della negazione. L'abuso porta alla necessità di laboriose circonlocuzioni per indicare invece la più banale negazione della convinzione.

Implementazione ≠ teoria

È necessario saper distinguere tra gli aspetti teorici e quelli pratici di un concetto, un'idea, una teoria, un'ideologia.

Un'argomentazione che abbia come obiettivo l'analisi o la critica di una teoria, ideologia, idea o concetto non è valida se procedere per ‘induzione’ da critiche ad una o più particolari implementazioni: occorre rivolgersi direttamente agli aspetti fondanti della teoria stessa, salvo per quelle critiche che siano specificamente mirate agli aspetti implementativi della teoria stessa.

Ad esempio, è legittima una critica che evidenzi la difficoltà della realizzazione di una implementazione positivamente funzionale; è anche legittimo che una tale critica porti come esempi implementazioni esistenti e/o passate.

Per contro, l'inesistenza di tali implementazioni non è un argomento sufficiente su cui basare la loro impossibilità. Nelle immortali parole di Westley in The Princess Bride2:

Nonsense. You're only saying that because no one ever has.

Sciocchezze. Dici così solo perché solo perché non c'è mai riuscito nessuno. ([video][westley.video])

Condizioni necessarie, condizioni sufficienti, correlazioni

In una argomentazione corretta e completa è importante distinguere ed evidenziare le implicazioni causali tra condizioni, situazioni, fatti, azioni, eventi. Le fallacie in cui è possibile cadere in questo caso sono tre:

  • supporre che una condizione necessaria sia anche sufficiente;
  • supporre che una condizione sufficiente sia anche necessaria;
  • supporre che una correlazione indichi un rapporto di causalità.

Le prime due sono discusse nel paragrafo Necessità e sufficienza, la terza in Correlazione e causalità.

Necessità e sufficienza

Una condizione X è necessaria affinché si verifichi Y se è impossibile che Y si verifichi senza che anche X (si) sia verificata. Una condizione X è sufficiente affinché si verifichi Y se quando X è verificata sarà automaticamente verificata anche Y.

Dal punto di vista logico, X è necessario per Y se Y implica X, ed X è sufficiente per Y se X implica Y. Necessità e sufficienza sono speculari l'una all'altra: se X è necessario per Y, allora Y è sufficiente per X, e viceversa.

Un esempio: perché piova è necessario che vi siano nubi. La nuvolosità è quindi una condizione necessaria per la pioggia. Se sta piovendo, possiamo dedurre che vi sono nubi. Viceversa, se non ci sono nubi, possiamo dedurre che non sta piovendo. La nuvolosità non è però una condizione sufficiente: se ci sono nubi, non possiamo dedurre che sta piovendo. Se non piove, non possiamo dedurre che non ci sono nubi.

Simmetricamente, la pioggia è una condizione sufficiente per la nuvolosità, ma non è condizione necessaria, da cui seguono le stesse implicazioni del capoverso precedente.

Una condizione X è necessaria ma non sufficiente quando il verificarsi delle conseguenze dipende da altre condizioni che devono verificarsi insieme a X. Una condizione X è sufficiente ma non necessaria quando le conseguenze possono dipendere da altre condizioni che possono verificarsi in alternativa ad X.

Esistono anche condizioni necessarie e sufficienti, che indicano quindi una equivalenza tra antecedenti e conseguenti. Generalmente rare in matematica sono i capisaldi di alcune teorie; per il mondo reale non me ne viene in mente nemmeno una.

Correlazione e causalità

La correlazione è un dato statistico sulla frequenza con cui un certo (tipo di) evento o situazione accade in concomitanza con/ associato ad un altro (tipo di) evento o situazione. Si ha un'alta correlazione quando i due (tipi di) eventi o situazioni si presentano spesso insieme.

L'errore argomentativo consiste nel tradurre un'alta correlazione in una causalità, ovvero supporre che eventi che si verificano spesso insieme siano legati dall'essere l'uno conseguenza dell'altro.

Poiché eventi legati da una rapporto di causalità sono effettivamente correlati, (ovvero, la causalità è condizione sufficiente per un'alta correlazione) questo tipo di fallacia logica rientra nel caso dell'ipotizzare che una condizione sufficiente sia anche necessaria (ovvero che la correlazione implichi una causalità).

In genere, la fallacia del rapporto di causalità ipotizzato tra eventi correlati procede spesso di pari passo con la fallacia del post quam, ergo propter quam: l'evento successivo viene ritenuto conseguenza del precedente per il semplice fatto che i due eventi tendono a capitare spesso in quella data sequenza cronologica.

Un alto livello di correlazione può però avere molte altre spiegazioni. Sempre rimanendo nell'ambito della causalità, ad esempio, eventi o fenomeni correlati possono avere una origine comune, più o meno remota.

Esempi tipici di abuso interpretativo della correlazione si trovano in medicina. È però importante sottolineare che anche laddove un diretto rapporto di causalità non possa essere derivato dalla scoperta di una correlazione tra due fenomeni, tale conoscenza può comunque trovare la giusta applicazione in altri ambiti dove la valenza statistica è la principale motrice, come per esempio nel campo delle assicurazioni.

Supponiamo ad esempio che da una ricerca emergesse una correlazione tra il pulirsi il culo con la mano sinistra e l'incidenza del cancro al colon, nel senso che tra color che usano la mano sinistra vi è una incidenza maggiore (in maniera statisticamente significativa) di cancro al colon rispetto a chi si pulisce con l'altra mano.

Volendo interpretare questo risultato, non si potrebbe dire, come invece titolerebbero molti giornali, che pulirsi il culo con la sinistra fa venire il cancro al colon; un assicuratore potrebbero però legittimamente chiedere al proprio cliente con quale mano si pulisce, ed eventualmente alzargli il premio in caso di mancinismo.

Se in un caso come questo la tentazione di passare da correlazione a causalità è forse un po' debole per via della ridicolaggine ed incomprensibilità di un eventuale rapporto di causalità, in altri casi scivolare verso la fallacia è più naturale, ad esempio perché una grossolana spiegazione della presunta causalità è più facilmente reperibile.

Ad esempio, da uno studio potrebbe emergere che dormire sul fianco sinistro ha una correlazione con l'infarto significativamente più alta che non il dormire sul fianco destro: pur non essendo, dal punto di vista argomentativo, una situazione diversa rispetto alla precedente, in questo caso è abbastanza facile convincersi, magari inconsciamente, che la correlazione è in effetti causale, dovuta ad esempio al diverso modo con cui la cassa toracica (e quindi il muscolo cardiaco) sono compressi durante il sonno in un caso rispetto che nell'altro.

  1. nel video Lack of belief in gods ↩

  2. penosamente tradotto in italiano come “La Storia Fantastica” ↩