lunedì 4 febbraio 2019

Paura?

Preludio


Ci avete mai pensato che tra 5 miliardi di anni la nostra galassia si scontrerà con quella di Andromeda e questo porterà, alla fine, ad una fusione dei buchi neri centrali e alimeterà per qualche tempo un nucleo galattico attivo che renderà la notte (qualsiasi notte in qualsiasi posto della galassia), luminosa come il giorno?

Più o meno nello stesso periodo, un miliardino di anni dopo, il Sole entrerà in fase di gigante rossa e ci ingoierà (il nostro pianeta potrebbe, nel frattempo, essersi sufficientemente allontanato grazie l’interazione mareale Sole-Terra ma saremmo abbrustoliti comunque)


E prima o poi il calore del nucleo di ferro al centro della Terra si indebolirà fino a non essere più in grado di alimentare il campo magnetico terrestre così che saremo spazzati dal vento solare, si fermerà la tettonica a placche e i cicli degli elementi subiranno un blocco che non porterà niente di buono (accumulo di qualcosa, carenza di qualcos’altro).
Di certo c'é che, da molto tempo, noi o saremo altrove o saremo morti
Ci avete mai pensato?

Incipit 

Siamo in viaggio. Di cazzate ne abbiamo fatte tante e altre ne faremo. Ma diamo anche per scontate molte cose di cui ora disponiamo e, neppure tanti anni fa, non avevamo un cazzo (solo la guerra) e ne soppesiamo solo connotazioni e conseguenze negative. Da demolitori/costruttori ci stiamo faticosamente trasformando in gestori dell'informazione, quella fine, profonda e potente. I guadagni potrebbero essere immensi e i danni conseguenti potrebbero essere immensi. Ma se guardiamo al passato, peggio di quel che abbiamo fatto é difficile: polveri sottili impestano l'aria in tutte le città del mondo (nel suo sud in particolare
https://goo.gl/images/3x3hi4
https://goo.gl/images/xwUj3B), inquinamento globale da microplastiche, modifica costante degli ecosistemi (agricoltura intensiva, città) e spargimento massiccio di Organismi Geograficamente Modificati dei quali é stato ampiamente verificato l'impatto negativo sulla biodiversità:
http://www.iucngisd.org/gisd/pdf/100English.pdf 
Oltre a noi stessi ovviamente, la più pervasiva delle specie. Nonostante tutto la vita media continua a crescere: in certi paesi come effetto del calo della mortalità infantile ma, a occidente, perché gli anziani vivono, mediamente, di più.

Paura n°1: la singolarità.

In fisica cosmologica la singolarità è il livello nel quale le equazioni di Einstein smettono di essere utilizzabili. Perdono senso. È un termine affascinante, anche per il velo oscuro che la natura gli ha posto davanti: i buchi neri.
Quindi la parola è stata cooptata in un altro ambito, quello delle scienze informatiche, a indicare il risveglio di una VERA intelligenza artificiale. Già é difficile mettersi d’accordo sulla definizione https://goo.gl/images/Pzbt3C
Importanti icone della scienza e dell'imprenditorialità innovativa (Stephen Hawking e  Elon Mask) hanno messo in guardia dal pericolo; qualcuno (Mark Zuckemberg) li ha irrisi. 
Quasi in risposta delle paure di Musk, filosofi e piccoli gruppi di scienziati (che non si occupano di sviluppo di intelligenza artificiale) si stanno pre-occupando del pericolo insito nello sviluppo delle AI. Il loro attivismo, che passa quasi inosservato, viene da essi stessi giustificato dal fatto che vedono in questa emergenza un pericolo con un potenziale di distruzione globale; la proposta che fanno é quella di legare lo sviluppo di un AI al "value alignment" della stessa, ossia implementare leggi morali negli strati più profondi e inalterabili del firmware della stessa (Alphabet/Google sta investendo tanto in questa direzione). A me vien da pensare che una legge morale é quanto di più nebuloso esista ai propri confini e che, con la pretesa di far del bene, sono state compiute innumerevoli nefandezze. 
I ricercatori che si occupano proprio di intelligenza artificiale, mediamente, non condividono gli allarmismi di Musk, ma pensano che il problema stia nel fatto che le AI attuali non siano abbastanza smart e che sia sì necessaria una regolamentazione del settore ma non per lo strumento in se bensì perché chi ne potrà realmente usufruire saranno sostanzialmente i quasi-monopolisti di oggi. 

Come é già successo per le banche d'affari, la cui cupidigia ha innescala crisi del 2008, così, senza un qualche limite imposto dall'esterno, costoro useranno strumenti pericolosi per massimizzare il loro margine senza curarsi dei potenziali danni.
In soldoni: non abbiamo la capacità di prevedere nulla, tanto meno la singolarità; possiamo preoccuparcene ora ma non potremo mai prevederne l'emersione; magari non accade nei prossimi 1000 anni o invece, da qualche parte, senza che ce ne accorgiamo si accende una qualche forma di pensiero cosciente https://goo.gl/images/qa99V1
Un aspetto della tecnologia legato a doppio filo all'intelligenza artificiale é quello delle reti neurali, che possono essere software: programmi che gestiscono il flusso di informazioni simulando unità computazionali o hardware: unità computazionali fisiche discrete. Tali computer sono addestrati a estrapolare dei pattern (quelli che ci interessano o anche tutti quelli riscontrabili) da masse di dati. 
Cosa vuol dire addestrati? Mettiamo che il sistema debba screenarmi foto di ragni: a un insieme imput in entrata (foto della qualunque cosa) io imporrò degli output positivi e negativi. L'imposizione da me operata porterà al rafforzamento di certe "strade" tra le unità elaborative del sistema fino a far diventare la rete più brava a riconoscere i cani, senza assolutamente sapere cosa sia un cane. La rete é fatta di uno strato di imput in cui immetto i dati, diversi strati intermedi che servono a parcellizzare il più possibile la parametrizzazione (e quindi la capacità di discernere dettagli), e uno strato di output https://goo.gl/images/To9KUz
Questo é il livello prima elementare sulle reti neurali che é il mio e oltre non mi spingo.
Attualmente il gold standard nell'addestramento (anche auto-) delle reti é una sistema che si chiama "gradient descent", tramite il quale un risultato viene raggiunto per tentativi, escludendo le "mosse" che si sono rivelate erronee/non efficaci. Recentemente nuove implementazioni stanno prendendo piede in questo ambito: -1) un sistema di selezione che riproduce quella biologica con algoritmi a evoluzione casuale (qualunque cosa voglia dire) che vengono premiati o meno dall'ambiente, spesso sotto forma di gioco elettronico; -2) la capacità della rete di definire quote statistiche di successo in un task in modo, dicono, da meglio gestire la complessità irriducibile di certi scenari, ad. esempio la guida automatica; -3) le Generative adversarial networks (GANs) in cui una prima rete genera output a partire da un insieme di dati reali (per esempio inventarsi foto di gatti a partire da un database delle stesse) e una seconda opera un confronto e una valutazione tra i dati reali e quelli generati dando un feed-back alla prima e migliorandone sempre più le prestazioni; queste sono reti che producono foto artificiali plausibili, fakes spesso non distinguibili da quelli reali.
Merita un un pensiero il fatto che, al di là del fascino della parola neurale, noi non capiamo ancora il funzionamento del cervello (il passaggio singolo neurone-formazione di un pensiero cosciente é tutt'altro che compreso) e che quindi lo stesso termine intelligenza risulta piuttosto vago. 
L'idea nelle reti neurali é di copiare il funzionamento dei neuroni cerebrali. Nel cervello ogni singolo neurone opera una sorta di sommatoria tra segnali eccitatori e inibitori, chi gli giungono dai suoi simili che lo "toccano". Superata una data soglia di eccitazione elettrica si innesca uno spike che percorre l'assone e consente la prosecuzione del segnale https://goo.gl/images/97jj2L
Un recente lavoro però indica che gli impulsi non pesano tutti nello stesso modo: conta se provengono da destra o da sinistra e un'attivazione da un lato risponde a soglie di attivazione non equivalenti a quelle dell'altro lato. Questa novità inaspettata mi fa pensare che la neuromorfica, ossia l’aspirazione architetture hardware che vogliono riprodurre quelle cerebrali, rimarrà a lungo poco più che un'ispirazione.
"That they get a lot of mileage out of [deep learning] doesn’t mean that it’s the right tool for theory of mind or abstract reasoning.”
—Gary Marcus, former head of Uber’s AI division, on whether deep learning will be enough to create AI with the intelligence level we are seeking.
-Nota di approfondimento 
La base di ogni computer odierno sono i transistor, e in particolare oggi i MOSFET. In soldoni sono porte in cui il passaggio di una corrente elettrica tra una fonte (source) e un puntò d'arrivo (drain) dipende dall'applicazione di una tensione in una specifica struttura del transistor stesso (gate). Pensate a una porta che divide 2 ambienti ed è sempre chiusa. Io mi trovo nel primo ambiente e, siccome soffro di ipertrofia prostatica e ho sempre una sensazione di impellenza, non faccio altro che bussare per passare dall'altra parte (magari c'è un bagno!). Ma niente, non dipende dalla mia volontà. Un controllore mi guarda tramite telecamere a circuito chiuso e decide, secondo le sue logiche, se allertare il maggiordomo. Il maggiordomo è la modulazione della tensione applicata: con il maggiordomo io passo, senza maggiordomo io la tengo. Ma questo é solo il primo passo, é un on-off. 
Tramite 2 diversi tipi di drogaggio (che é il termine realmente usato nella tecnologia dei microprocessori) dei maggiordomi posso far sì che questi reagiscano a stimoli opposti del controllore: avrò quello che si fa di coca, iperattivo, e se il controllore non gli dice continuamente "tranquillo!" viene ad aprire la porta, e quello fumato che ha le paturnie che dietro la porta ci sia un mostro mangia-servitori domestici e non va ad aprire la porta, a meno che il controllore non gli dica "tranquillo!". Avendo a disposizione porte e due tipi di maggiordomo posso costruire porte logiche. In particolare la più semplice, la NOT: 
Mettiamo un unico controllore per 2 porte con quella del maggiordomo iperattivo che da su un lungo corridoio illuminato con in fondo un bagno e quella del maggiordomo fumato che da su un corridoio buio che termina con qualcosa che pare un muro di mattoni (messa a terra). Poniamo che io e il mio clone Robo2 siamo di fronte alle 2porte bussando per richiamare l'attenzione del rispettivo maggiordomo: il controllore tace (bassa tensione in input), per cui il maggiordomo iperattivo va ad aprire e io Robo corro con entusiasmo verso il bagno (alto voltaggio in output), il maggiordomo fumato non osa muoversi e la porta resta chiusa. Se invece il controllore comincia a dire "tranquillo!"(alta tensione in imput) il maggiordomo iperattivo non si muove mentre quello fumato va ad aprire Robo2 che però si muove con circospezione perché il corridoio é buio e il fondo cieco non si vede (bassa voltaggio in output). Per uno che non capisce nulla di elettrotecnica questo é stato uno sforzo titanico.
Esistono altre porte logiche costruibili con l'elettricità e ne bastano 3 (NOT, OR e AND) per implementare qualunque operazione logica (così dice Wikipedia e io mi fido), in pratica operare (quasi) qualunque calcolo con i chip, se non vi basta questa spiegazione cercate logica Booleana con Google e auguri...

Un'altra questione che rimanda, in qualche modo, all'emergenza di una singolarità è il computer quantistico. Se un transistor "classico" può essere solo acceso (porta aperta) o spento (porta chiusa), un transistor quantistico può esistere in una sovrapposizione di stati https://goo.gl/images/36N5hS
Ciò accade perché un transistor quantistico deve necessariamente essere un oggetto quantistico e averne le caratteristiche, infatti si sta tentando di schiavizzare (con difficoltà) ioni sospesi in un campo magnetico e modulati da laser, oppure lacune in un cristallo di diamante drogato con atomi di azoto, o elettroni in microcavità risonanti (quantum dot) o coppie di Cooper (elettroni correlati tra loro) in un superconduttore, etc. Il transistor quantistico soffre di molti problemi perché é instabile, la lettura e la trasmissione intra ed extra device sono problematiche, é un mondo nuovo. Come si passi da "transistor" quantici a porte logiche quantiche a circuiti quantici va, di molto, oltre le mie capacità di comprensione ma intuisco che, se mai esisterà, una singolarità emergerà da un sistema quantistico applicato ad una A(rtificial)G(eneral)I(ntelligence) che magari sarà tale in modo diverso da noi e questa sarebbe una cosa meravigliosa 


Problema n°2: il controllo.

Stiamo entrando in un'era nella quale i robot lentamente usciranno dalle fabbriche per diffondersi tra noi. Non necessariamente in forma umanoide. L'esempio più calzante con la realtà odierna é la questione delle macchine a guida automatica. La differenza é che i robot industriali operano su patterns standardizzati e quindi vengono programmati ad hoc, mentre agire in un teatro con agenti non sotto il diretto controllo richiede un diverso tipo di approccio: le macchine vanno allenate ad una realtà mutevole e imprevedibile. Come già detto vengono posti degli imput in entrata e forzati degli autput in uscita che tornano in feed-back sullo "strato intermedio" in cui gli elementi imparano e pesano; sono forzate certe connessioni a scapito di altre come fossimo in un rudimentale cervello siliceo. Il fatto che non possiamo (per ora) conoscere esattamente ciò che accade in tale strato intermedio suona un poco inquietante. Non stiamo parlando di AI ma di strumenti dedicati che non tollerano un cambio di mansione, insomma device abbastanza limitati ma la cosa, almeno filosoficamente, causa un innegabile disagio. 
Il disagio aumenta quando si passa a processori che imparano provando e riprovando da soli, come é il caso della seconda versione di Alphago di Google che é diventato imbattibile giocando da solo, avendo a disposizione solo le regole di base del gioco Go, (e recentemente la sua versione all-purpose, Alphazero ha battuto tutti i migliori programmi esistenti nei giochi più complessi https://goo.gl/images/h9W1ob) o come é il caso di una versione di self-drive engine di Nvidia che non ha alcuna programmazione ma impara a guidare guardando un umano che lo fa (...mazza se guarda la Sabrina stiamo freschi!). 
La cosa raggiunge l'acme quando due di questi computer allenati, posti a dover comunicare, estrapolano un linguaggio più efficiente per loro. É successo, li hanno spenti, hanno giustamente minimizzato ma li hanno spenti perché non erano utili. A noi non addetti ai lavori però 'sta cosa del dialogo ci ha un poco turbato. 
Questi argomenti possono apparire futili ma assumono un'aura diversa quando si prendono in considerazione le fully autonomous weapons, ossia le A.I. su un teatro di guerra a vari livelli di intensità. In tal caso é innegabile che gli eserciti siano fortemente interessati ad armamenti con capacità di reazione praticamente immediata e in grado di far risparmiare (proprie) vite sul campo. La potenziale indipendenza decisionale dei "killer robots" (che é un vantaggio su un campo di battaglia) porrà con forza la questione delle scelte e il rischio che comporterebbe, in quegli ambiti, la mancanza di una supervisione umana.
Il problema con l'uso delle AI é anche il fatto che ci sono sempre più esempi che le nuove modalità adattive delle reti neurali portano spesso a impreviste modalità d'azione che la nostra fantasia non aveva considerato. Ad esempio senza porre in atto una intelligenza cosciente diversi sistemi hanno imparato a "barare" nei giochi elettronici su cui sono state formate, a volte sfruttando i bug nella compilazione del software. Spesso l'AI ricorre a quelli che noi chiameremmo sotterfugi svelando in realtà incongruenze nell'implementazione del proprio uso o errori nella formalizzazione dei risultati desiderati ma, dicono gli esperti, il rischio che tutto ciò si trasformi in un attacco informatico é reale. Un esempio di teatro ipotetico sarebbe quello di lasciar scegliere a AI come migliorare i problemi del Global Warming e queste ultime potrebbero spegnerci il riscaldamento in pieno inverno oppure potrebbero spegnere noi... 
Il tutto fa un po' paura. Possiamo prevedere un comportamento non adeguato di un AI? 
Al momento pare di no, é il black box problem: non sappiamo che strade logiche segue l'AI (come "pensa") nella risoluzione di un problema. Di per sé potrebbe anche non interessarci ma tornate qualche riga sopra... 
Ora pare che in Google si stiano sviluppando tool per intrufolarsi nella mente della scatola, lo chiamano Testing with Concept Activation Vectors” (TCAV). Questo controllo a posteriori permetterebbe di escludere che l'AI nella ricerca di patterns utilizzi elementi spuri e non utili o dannosi. Per esempio se nella valutazione di vetrini per estrarre quadri che suggeriscono uno stato patologico sfugge agli addestratori che degli artefatti (es. cellule schiacciate, eccesso di coloranti) entrano inavvertitamente nel processo di selezione, questo metodo lo rileva. Come fa? Non ne ho la minima idea. Intuisco che aver sotto controllo questi aspetti sia utile nell'efficenza del sistema, intuisco anche che aspetti ovviamente risibili per un'uomo potrebbero essere tenuti in considerazione da una stupida AI, e intuisco pure che, per puro caso, questi aspetti potrebbero introdurre variabili inaspettate e magari, sempre per puro caso, dannose. Non so come tutto ciò si intrecci col fatto che noi chiediamo alle AI di rilevare associazioni sintetiche che a noi sfuggono, altrimenti non avremmo bisogno di loro (anche se, a dirla tutta, un sistema bravo almeno quanto un esperto di medio livello sostituirebbe schiere di addetti e sarebbe comunque un risparmio).

Nella questione del controllo rientra a pieno merito la guida automatica, che tra le varie questioni che solleva (di sicurezza, legali) ha anche implicazioni etiche rilevanti. É presumibile che la guida automatica di livello 5 (secondo la nomenclatura adottata quella che può sostituire completamente il guidatore) ma anche quella di livello 4, presenteranno capacità di tempi di risposta non accessibili ad una persona, senza limitazioni emotive nella risposta a un evento improvviso/pericoloso. Si suppone anche che la programmazione/l'allenamento della AI pongano quest'ultima, prima o poi,  in condizione di effettuare scelte, avendo la capacità e il tempo, presumibilmente, di farle. Se si possono fare scelte per minimizzare il danno bisogna dare un peso ai soggetti suscettibili al danno stesso. Finché le possibilità sono un muro vs. un fosso va da se che il parametro da tenere in considerazione sarà la maggior probabilità che il conducente ne esca incolume. Ma tra un muro, potenzialmente mortale per il conducente, e una persona, già le cose si complicano: certamente uno che acquista un'auto a guida automatica gradirebbe (anche se magari non lo dice) che questa massimizzasse la protezione degli occupanti del mezzo. Ancora più critica una situazione di scelta tra 2 situazioni  reciprocamente inevitabili tra due gruppi di persone: conta il numero? Come pesiamo l'età? Un bambino quanti anziani vale? Una donna in evidente stato di gravidanza vale come due?
Adesso questi discorsi possono sembrare inutili, ma un giorno le capacità di discernimento e valutazione delle A.I. li renderanno rilevanti. E non si può neppure pensare di far tirare a sorte all'automatismo, perché, se questo ha la capacità di riconoscere numero di persone-età-sesso, non sarebbe una soluzione eticamente percorribile quella di lasciare al caso la scelta.
E in caso di guasto del sistema chi paga i danni? Il fornitore del software o chi altro? Ci sarà parecchia carne al fuoco... https://goo.gl/images/NVk1oB
C’è anche chi dice che con il miglioramento della componentistica di comunicazione (riduzione dimensioni e ingombro, aumento potenza emissiva) la rete di ordine superiore che vedrà luce sulle strade, uno dei tanti aspetti della c.d. Internet of things, fornirà molte più info da valutare alle AI alla guida del veicolo singolo ma anche più possibilità di coordinamento dei veicoli intesi come gruppo. Se così sarà lo spostamento delle auto diverrà più simile a un flusso coordinato di elementi sempre dialoganti tra loro, e la nostra scelta verterà solo sul digitare un punto di arrivo: sarà questa una perdita di libertà? Sta di fatto che pare che l'utenza automobilistica non abbia tanta fretta di consegnare la propria guida a una AI
Fino a questo livello la paura é: come controlliamo? cosa controlliamo? Il passo successivo é: cosa ci controlla? 
La polizia di alcuni grossi centri abitati in USA utilizza programmi per avere previsioni probabilistiche di quali zone cittadine siano a maggior rischio di reati in modo da definire l'allocazione di risorse. La cosa pare funzionare.
Nei tribunali americani si cominciano a usare software predittivi per decidere se, per un accusato in attesa di giudizio, ci sia rischio di reiterazione del (presunto) reato e propendere o meno per la carcerazione preventiva. Mentre trovo che la valutazione sintetica di un comportamento collettivo sia una cosa interessante, usare gli stessi strumenti per prevedere il futuro di una persona singola mi pare sia un salto concettuale notevole e pericoloso. 


Paura n°3: la perdita del lavoro.

L'industrializzazione ha tolto lavoro nelle campagne, (trattori e trebbie hanno diminuito la necessità del lavoro umano) ma lo ha portato nelle fabbriche cittadine. Mica tutto é stato meglio e lo si é capito fin da subito: la deregulation della prima rivoluzione industriale, con l'evidente bruttezza sparsa intorno, portò alla nascita, nel Regno Unito, del fantasy, come idealizzazione di un Medioevo perfetto e perduto. C'erano veri e propri meeting con gente in costume, un cosplaying ante-litteram, immagino per ricchi borghesi che i poveri di Londra o i rurali non avevano tempo e forze da dedicare al gioco nostalgico.
L'automatizzazione e l'informatizzazione hanno indubbiamente abbattuto posti di lavoro nell'industria, aumentando la produttività dello stesso. I posti liberati, con la spinta dell'Incremento del livello di istruzione, sono passati ai servizi: accudimento, insegnanamento, salute, giornalismo, etc. Un passo in avanti rispetto allo stare in fabbrica, almeno per qualche tempo. 
Come già detto oggi pullulano gli studi sull'effetto dei software intelligenti(?) in grado di estrarre dai big data le correlazioni che si nascondono all'occhio umano  (ambizione debole) e di sostituire il lavoro di concetto (ambizione forte). Medicina, giornalismo finanziario, lavori impiegatizi, etc. tutti sono concordi che il livello medio subirà prima o dopo l'effetto di questa 4ª rivoluziona industriale. Non sono concordi sulla magnitudine del fenomeno, anche perché non basta che un software possa sostituire per efficacia ed efficienza una posizione occupata da un umano, é necessaria l'accettazione da parte dell'utenza, che é un fenomeno culturale di cui è difficile prevedere gli sviluppi. Ma un effetto di certo ci sarà, anche in ambiti prima impensabili, ad es. nella lettura di patterns con parametrizzazioni più quantitative che qualitative: ad esempio una AI chiamata CheXNet, ha superato per efficacia diagnostica 4 specialisti radiologi nell'individuazione di 14 patologie polmonari tramite radiografie toraciche https://goo.gl/images/eqvZsU, inoltre é di qualche tempo fa l'evidenza che una AI allenata superava in capacità diagnostiche dei dermatologi esperti riguardo quadri cutanei.
Va quindi da sé che l'uso delle A.I. in medicina come consulente dei medici, nella lettura di pattern complessi, non é tanto distante ma la cosa più interessante in tutte queste esperienze é il fatto che nei casi in cui si é testata anche la capacità aggregata AI+uomo il risultato é stato ancora migliore. A questo probabilmente serviranno le AI, all’estrazione di correlazioni che, per la loro complessità, tendono a sfuggire alla valutazione sintetica del medico, o meglio a diventare il loro output un parametro di cui lo specialista potrà/dovrà tener conto nella scelta diagnostica.
Talora si va anche oltre: l'università di Stanford ha prodotto, qualche tempo fa, un paper su ArXiv in cui descrive una AI allenata a prevedere, a partire da 3 e entro 12 mesi, il decesso dei pazienti sottoposti a cure in modo da organizzare per tempo le necessarie attività di preparazione (anche psicologica e dei familiari). L'AI é stata allenata sulla cartella clinica elettronica di circa 2 milioni di adulti e bambini ricoverarti e ovviamente sugli esiti incrociati. Devo ammettere, da (ex) medico, che mentre trovo utilissimo un algoritmo che accompagni le decisioni del medico su diagnosi e terapia, fatico a trovare un'utilità effettiva in questo caso specifico. O l'AI é dotata di capacità previsionali certe riguardo l'esito e il tempo esatto dello stesso (ne dubito: sarebbe Dio in circuiti) o si rischiano inutili complicazioni. 
Comunque non mi stupirei che, a partire da ambiti accademici, le AI affiancheranno i medici nella diagnostica sintetica delle patologie. La capacità delle AI di estrarre "figure" da una grande mole di dati è stata recentemente utilizzata per vagliare tutto l'output del satellite Kepler, e sono stati rilevati due nuovi pianeti sfuggiti al controllo umano; naturalmente ci sono stati anche falsi positivi (se stringi le maglie di un setaccio raccoglie anche le pepite più piccole ma anche più rocce che dovrai scartare).

Ogni passaggio tecnologico é stato accompagnato dalla distruzione di figure lavorative e dalla creazione di nuove, nonché da una fiammata di inevitabile luddismo; non é la prima volta che accade.
Il problema é che, in questo caso, non sappiamo se il travaso di posti di lavoro sarà possibile, anche perché la richiesta verterà presumibilmente su posizioni altamente qualificate. Insomma non sappiamo se anche stavolta ci sarà un terziario come salvagente anche perché lo stesso terziario potrebbe essere intaccato dall'automazione. Sotto un esempio dell'effetto dell'automazione per quanto riguarda Amazon https://www.theatlas.com/charts/ByiT4yET-
É un dato che potrebbe essere premonitore ma Amazon é, ancora/per ora, un reteiler sui generis quindi non so quanto sia predittivo in termini temporali. Intanto un software potrebbe presto diventare il nostro capo, o, perlomeno, quello che distribuisce compiti operativi: pare che Uber già lo faccia e altre grosse aziende si stanno attrezzando. Sarà più difficile incazzarsi con il collega che si occupa dei turni, perché il collega...non ci sarà. Ma dare una risposta definitiva alla domanda "quanti posti di lavoro verranno distrutti e quanti creati dalla tecnologia negli anni a venire?" mi pare in realtà una mission: impossible. Lo dico non perché io ne capisca qualcosa ma perché i numeri che derivano dagli studi possono differire di molto l'uno dall'altro e quelli sono gli esperti... https://goo.gl/images/JYHKtV https://goo.gl/images/3hYYKK
Inoltre ci sono già da tempo software che effettuano scelte "automatiche" negli investimenti azionari, il cosiddetto Algotrading che da una posizione di dominio sugli scambi azionari sta invadendo anche il mercato delle materie prime. Io capisco poco di questi argomenti ma la crescita di tali strumenti in finanza sembrerebbe inarrestabile
https://goo.gl/images/C7d81hhttps://goo.gl/images/atG6YQ
Inoltre si prevede una rapida scalata anche nell'utilizzo, da parte delle aziende, di programmi che vagliano posizioni lavorative raccogliendo dati (anche dai social media) e operando una cernita delle migliori. Ecco quest'ultimo esempio è quello che più preoccupa alcuni. Si rischia di dare un potere assoluto a strumenti che riproducono i pregiudizi di chi li ha compilati senza la possibilità di ravvedimenti o cambi d'idea. Una "dittatura" del software in cui i falsi (positivi o negativi) restano tali.
In ultima analisi neppure i ricercatori sarebbero immuni alla possibile dipendenza della produzione scientifica da strumenti legati alla AI. Queste ultime realmente intelligenti o meno possono trovare schemi o ricorsività in enormi insiemi di dati. La paura di alcuni scienziati é che le formule generali, i modelli e le ipotesi che sono il pane dell'avanzamento scientifico ne escano depotenziati se non cancellati: 
Physics professor Amar Vutha ponders whether machine learning could spell the end of true understanding in science


Paura n°4: i vaccini.

L'antivaccinismo é sempre esistito, fin dall'inizio. Il fatto di introdurre qualcosa di estraneo per prevenire qualcosa che ancora non c'é non era sempre ben accetto anche quando le malattie uccidevano molto spesso (vaiolo, tetano) o quasi sempre (rabbia). Allora tra l'altro si correvano molti più rischi di oggi perché la standardizzazione dei preparati da inoculare era certo imperfetta e legata a prove sul campo (e sul campo c'erano anche le persone). Vaccino poi viene da vacca perché fu il vaiolo bovino, estratto da bovini, a essere utilizzato per rendere resistenti bambini e adulti al vaiolo umano. Potete capire che farsi iniettare robaccia di mucca non era, già allora, molto allettante. Il nome é rimasto anche se adesso dovremmo chiamarli uovini, da uovo, visto che diversi virus vaccinali, in particolare quelli influenzali, sono fatti crescere su uova embrionale di pollo, anche se si ci sforza di usare altre "casine" tipo colture cellulari. Oggi il gap tra percezione del rischio da patologia e del rischio da vaccino si é invertito in una buona parte della popolazione e, alla fine della storia, è la percezione che conta ed é quasi insindacabile.
Non mi infilo nel ciarlame che é principalmente ideologico (da ambo le parti) mi limito a indicare un sito equilibrato e didattico sulla questione: http://www.adultievaccinati.it/ e un articolo esaustivo
https://www.wired.it/scienza/medicina/2017/12/04/giulia-innocenzi-vaccini/

Solo una cosa: nel determinare il rischio di danni, a livello individuale, tra vaccinazione e patologia bisogna fare un confronto di percentuali, ossia % del rischio di ammalarsi per % di eventi rilevanti legati alla patologia vs. 1 (dato che il vaccino se te lo fai...te lo fai) per % di eventi rilevanti legati alla vaccinazione. Va da se che mentre cala la prevalenza della patologia, grazie alle vaccinazioni, diminuisce il rischio di ammalarsi e può capitare che A LIVELLO INDIVIDUALE, si giunga ad un sostanziale pareggio. Così è all'incirca adesso per il morbillo. Ma 1)la vaccinazione, nelle malattie trasmissibili è fatto collettivo, non individuale (lo é invece nel tetano in cui il vaccino é sostanzialmente un'antidoto preventivo ad un pericoloso veleno ambientale): vaccinarsi serve anche a proteggere quelli che non possono farlo. 2)Se possibile, fatte certe condizioni (no serbatoi animali, no eliminazione virioni vivi attenuati nei soggetti vaccinati) non allentare le maglie della vaccinazione serve anche a giungere all'eradicazione del virus, come é successo per il vaiolo, in modo da non avere più né virus né vaccino.
Infine 3)il confronto andrebbe fatto riguardo l'intero gruppo a rischio rispetto alla situazione in cui il vaccino non si utilizzasse.
Se si vuole interrompe la circolazione del patogeno bisogna raggiungere una certa percentuale di copertura dei soggetti a rischio, sennò salta la protezione verso chi non può vaccinarsi.  Tale percentuale é tanto più alta quanto maggiore é la capacità infettiva del virus e tiene anche conto dei buchi vaccinali (esiste sempre qualcuno che non sviluppa una risposta anticorpale adeguata dopo la vaccinazione)
Inoltre la vaccinazione non ha effetto di pressione selettiva sui patogeni a differenza dei farmaci: il vaccino é attivo a posteriori, anche se fatto prima del contatto col patogeno, perché per renderlo efficace dobbiamo fornire alle difese organiche un materiale equivalente a quello con cui il sistema immunitario dovrà confrontarsi nell'evento infettivo, se sbagliamo qualcosa nella scelta delle proteine o nel frattempo il nemico è cambiato semplicemente non funzionerà; il farmaco antinfettivo invece si fornisce dopo il contatto con l'agente patogeno e può esercitare un effetto di selezione di ceppi mutanti sopprimendo quelli responsivi, per questo, se male utilizzato, è destinato a divenire, col tempo, un'arma spuntata. Per quanto riguarda la questione risposta immunitaria vaccinale vi linko questo file:
https://www.queryonline.it/2017/11/24/i-vaccini-sovraccaricano-il-sistema-immunitario-dei-bambini/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+QueryOnline+%28Query+Online%29

-Nota di approfondimento
I vaccini per i virus possono essere sostanzialmente di 2 tipi: a virus vivi attenuati o sub-unità virali cioè frammenti deI virus stesso. I vaccini vivi attenuati sono spesso più efficaci perché la replicazione del virus invornito stimola molto le difese organiche ma sono controindicati se queste ultime sono provate o inibite (altre malattie, gravidanza) e possono teoricamente (ma non é detto, ogni vaccino fa storia a sé) essere trasmessi in forma non clinica a altri ospiti. Quelli a sub-unità virali, come, ad esempio i vaccini anti-influenzali, sono sicuri e danno meno effetti collaterali
 ma hanno bisogno di essere adiuvati, cioè addizionati di piccole quantità di sostanze che richiamano in loco le cellule immuno-competenti che danno il via alla cascata inmunitaria. Qualche tempo fa si diffuse una sorta di psicosi sul fatto che alcuni adiuvanti potessero causare, nel lungo periodo, iper-regolazione del sistema immunitario e conseguenti patologie autoimmuni. Colpì anche molti medici perché sono pochi quelli che capiscono realmente di queste cose e la paura del danno a utilità zero é molto profonda e a ma pare in fondo il reciproco dell'uso voluttuario di integratori per prevenire...nulla. Uscì SUL mercato, qualche tempo dopo, un vaccino antinfluenzale intradermico: ago di un millimetro in siringa predosata. Niente adiuvanti perché il richiamo di cellule immunocompetenti nello spessore della cute era così efficiente da renderli inutili. Ce lo siamo fatto in 3, io e altri 2 coglioni e così (in Emilia Romagna, altrove non so) uscì DAL mercato, Intanza si chiamava... https://goo.gl/images/wEGbh2

Paura n°5: la manipolazione dell'informazione genica.

Forse l'argomento più ideologico del momento. Anche perché legato a un'utilizzo praticamente monopolistico da parte di grandi aziende del settore sementiero-chimico: le uniche in grado di investire le ingenti somme per lo sviluppo, la registrazione e l'attività di lobbing. L'eccesso di autoincensamento di queste ultime non ha aiutato (tipo: "sono la soluzione per la fame nel mondo") e, dall'altra parte, la percezione di "una naturalità buona e giusta violata dall'arrogante e interessato intervento umano" (come fosse la prima volta...) hanno creato lo scisma. Dura ricucire. Ora però é arrivato CRISPR, e l'intervento genetico é diventato improvvisamente più preciso, rapido, modulabile; più alla portata di tutti, anche se parliamo di un "tutti" molto relativo. 
-Nota di approfondimento 
CRISPR non lo abbiamo inventato noi ma i batteri. Questi devono combattere continuamente con un nemico implacabile che cerca di seccarli...no non siamo noi sono i virus batteriofagi o, per gli amici, semplicemente i fagi. Costoro sono impegnati in una corsa della regina rossa con i batteri e sono altamente specifici, vale a dire un fago é infettivo, di norma, per un singolo ceppo batterico, non per altri (per questo é difficile usarli come farmaci). I batteri hanno col tempo sviluppato un sistema, CRISPR appunto, che registra il DNA dei fagi e, sulla base di quello costruisce un RNA complementare che "riconosce" quello dell'invasore. Allora basta legare a CRISPR un sistema come cas9 che taglia il DNA invasore per renderlo innocuo. Ovviamente noi ne facciamo un uso diverso: si può tagliare e approfittare dei meccanismi di "restauro" delle cellule per disattivare un gene, si possono aggiungere engine per operare una sostituzione di una singola base, si può agire agganciando a CRISPR un modulatore dell'espressione epigenetica: aggiungendo gruppi metilici che disattivano la lettura di certi tratti o, al contrario promuovendola senza tagliare nulla, etc. Se poi invece del cas9 si attacca il cas12 si ha a disposizione un modulatore dell'espressione genica tramite affettamento selettivo di specifici RNA lasciando intatto il DNA, quindi le modifiche non sono definitive, basta smettere di porre il materiale genetico a contatto con CRISPR per tornare alla situazione di partenza. 
Sotto una recapitolation grafica

CRISPR non ci arriva da solo nelle cellule dove c'é un tratto genetico da correggere, come tutti gli strumenti genici ci va inserito, in questo la tecnica non differisce dalle altre già esistenti. La modalità più semplice per il suo utilizzo é una una modifica operata direttamente su un embrione fecondato perché c'é una sola cellula su cui agire posta in apposito brodino, ma é un atto pericoloso e sovversivo, un "rien ne va plus, le jeux son faiti!": va bene se trattasi di piante e animali, tanto si può andare a tentativi e gli embrioni non riusciti li cestiniamo, ma nell'uomo no. 
Un'alternativa é una modifica ex-vivo, ossia si prelevano alcune cellule, più facile con quelle ematiche per ovvi motivi (sono libere), si modificano introducendovi CRISPR e poi si rimettono dentro, ma non é detto che il problema sia risolvibile così. La mossa più efficiente é una modifica in-vivo, cioè trovare di far arrivare il sistema dove serve ed é stato fatto recentemente, in topini sordi per un allele difettoso di una proteina essenziale per l'attivazione delle cellule della coclea dell'orecchio che sono quelle deputate a trasformare le vibrazioni del liquido in cui sono immerse in segnali elettrici leggibili dal cervello. Hanno usato delle nano-sfere lipidiche e dentro ci hanno messo il CRISPA-cas9  poi le hanno iniettate nella coclea; le loro membrane di sono fuse con quelle delle cellule da correggere facendo penetrare il sistema che ha potuto così operare. Non é dato sapere se e quando ci sarà un uso analogo nell'uomo.
La novità dirompente non é solo tecnologia, sta anche nel fatto che, con alcune versioni di CRISPR, le modifiche operate sono indistinguibili da quelle per selezione naturale, perché non viene aggiunto DNA esogeno e perché non resta nulla del meccanismo di editing, quindi gli O.G.M. 2.0 non sono neppure rilevabili.
E qui si apre una questione che troverà entusiasti vs. spaventatissimi, informati(?) vs. prevenuti, fautori della totale deregulation vs. fanatici del controllo totale 

CRISPR é solo uno strumento per fare cose. Spesso queste cose le potevamo già fare, anche se con grandi difficoltà. Oltre agli OGM ci sono altre tecniche facilitate da CRISPR e, tra esse, una dirompente al cui riguardo il dibattito dovrà essere onesto e le scelte dovranno essere condivise: il Gene Drive. 
Cos'é? É un meccanismo tramite il quale si modificano i normali meccanismi di ereditarietà. Normalmente le cose vanno così https://goo.gl/images/ZYCGPn
Ovviamente lo schema é per un singolo carattere dipendente da un singolo gene, mentre ci sono caratteri detti quantitativi che dipendono dall'espressione di più geni (l'altezza per esempio) ma il meccanismo resta valido. Per gli occhi funziona più o meno così, per il colore dei capelli idem, anche se raramente c'è una dominanza completa e magari l'allele meno dominante trova il modo di emergere (ad esempio in una chioma castano scura tra un moro e un biondo platino) ma non c'é modo di eliminare scientemente un allele senza una selezione ad hoc della discendenza.
Anche i geni egoisti esistono in natura: ve ne sono alcuni che uccidono gli ovuli fecondati che non li contengono, oppure nell'accoppiamento tra cromosomi (che avviene nelle fusione tra spermatozoo e ovulo) seccano il cromosoma omologo se in quello non é presente una copia del gene stesso. Sono poco controllabili ma ci hanno dato l'idea di operare un Gene Drive fatto in casa, con CRISPR. Perché una volta inserito un gene in una popolazione che non potrò avere sotto controllo bisogna che lui poi "balli da solo". 
Si sta cercando di usare il Gene Drive con le zanzare che trasmettono il plasmodio della malaria (inserendo geni che le rendano non ricettive o che facciano loro produrre una progenie invariabilmente maschile) ma facciamo finta che lo uso io perché voglio che in tutto il mondo la gente abbia gli occhi color pervinca (avevo una amica dell'università con gli occhi pervinca, belli e rari...peccato avesse il culo rasoterra). https://goo.gl/images/LWwvz3
Allora per prima cosa inserisco geni per gli occhi pervinca in una serie di ovuli e spermatozoi e faccio nascere in provetta tanti fustacchioni con attitudini molto promiscue e li mando a riprodursi in giro. Il gene che ho introdotto, oltre che essere l'allele per l'espressione del colore desiderato ha embedded il materiale genetico che, tradotto, mi fornisce tutto l'armamentario di CRISPR/cas9 o un altro cas alla bisogna. In ogni caso quando uno spermatozoo di un fustacchione si fonde con un ovulo di una  fustacchiata e si accoppiano i 2 cromosomi (ricordate? Uno del babbo e uno della mamma) i 2 geni del colore degli occhi (posti alla stessa altezza del medesimo cromosoma) vengono a contatto. Di norma tutto finirebbe lì: l'allele degli occhi pervinca si diffonde nella popolazione secondo le leggi mendelliane e essendo con tutta probabilità recessivo come espressione fenotipica, non vedremo molte iridi di quel colore in giro, come in effetti accade. Ma se usiamo il nostro gene pervinca-CRISPR-embedded quando si accoppiano i cromosomi di babbo e mamma il nostro CRISPR/cas9 taglia la sequenza verso la quale é stato programmato e i sistemi di riparazione cellulare usano come copia per riparare il danno l'allele artificiale da noi creato che si trova proprio lì di fronte, e così alla prole, quasi sempre, viene passato il gene pervinca-CRISPR, e così via. https://m.youtube.com/watch?v=G1L0G00nCM8
Il sistema non é perfetto. Qualche volta il taglio operato dall'enzima cas non viene occupato dalla sequenza di basi corrispondente del nostro allele-occhi pervinca ma la cellula inserisce una sequenza casuale che blocca il processo in quella generazione: al prossimo accoppiamento di gameti CRISPR non riconoscerà più la sequenza da tagliare e il Gene Drive si bloccherà. Oltre a questo le variazioni casuali (mutazioni) della sequenza del DNA di un gamete può rendere il loco di aggancio non più riconoscibile a CRISPR e, di nuovo, bloccare il meccanismo di guida genetica. Si sta valutando come oltrepassare questi inconvenienti con l'uso di più geni d'attacco, in modo da rendere altamente improbabile che tutti i siti di lettura di CRISPR vengano resi non leggibili prima di aver ottenuto il nostro goal: un mondo di persone con gli occhi color pervinca! 
-Nota di approfondimento 
In realtà per quanto riguarda gli occhi pervinca il sito di attacco é unico per forza, perché il tratto é gestito da un solo gene. Dovremmo per moltiplicare le possibilità di riuscita trasporlo anche in altri loci del DNA, dove però, nell'accoppiamento dei gameti non incontrerebbe un omologo dall'altra parte. Se invece vogliamo inserire geni di resistenza alla malaria abbiamo presumibilmente più siti di azione nei diversi cromosomi su cui agire, perché l'interazione biologica tra zanzara e parassita è certamente complessa
Finito? No. Finora abbiamo parlato di modifiche operate su una base preesistente, ma potremmo diventare creatori di qualcosa di nuovo, di qualcosa che in natura non esiste?
Craig Venter, quello del progetto genoma, provò a costruire da zero un genoma sintetico: non ci riuscì, non abbiamo ancora le competenze. Allora provò un altro approccio: prese un batterio particolare, piccolo, senza parete cellulare (i batteri di solito ce l'hanno) sopra la membrana: un micoplasma, sorta di amebina procariota. Sono batteri che uniscono a dimensioni minime anche una semplificazione particolare del DNA, pochi geni. Cominciarono a inserire pezzi del genoma, tipo "proviamo il gene A e lasciamo fuori quello B, vediamo che succede e poi facciamo il contrario". Un lavoro di tentativi, solo in parte guidati da una conoscenza del materiale genico per creare il primo organismo SEMI-sintetico, e arrivare a definire il minimo genoma possibile per un organismo che possa nutrirsi e moltiplicarsi: Jcvi-syn3.0. https://goo.gl/images/qaXLKc
457 geni sono risultati la condizione minima sufficiente a consentire al nostro batterio semplificato di vivere e riprodursi ma la nostra ignoranza é evidenziata dal fatto che di un 30% circa di essi non sappiamo a cosa servano. Ora però abbiamo teoricamente un contenitore di base cui potremmo aggiungere geni ad hoc per fargli fare cose nuove.

Un altro approccio estremamente affascinante é quello che prevede di cambiare le regole consolidate, intendo quelle di 4 miliardi di anni di evoluzione della vita sulla terra, creando nuove cellule sintetiche da zero. Come si fa? Beh, il genoma ce l'abbiamo e possiamo usarlo ma dobbiamo costruire una membrana lipidica da zero (dello spessore giusto, della flessibilità giusta e che non si rompa aggiungendo proteine ad hoc trans membrana), e infilarci dentro qualcosa-tipo-mitocondri e il già citato Jcvi-syn3.0 o un analogo prodotto in laboratorio (perché una volta che ne conosci la sequenza puoi anche riprodurre le molecole di DNA). É una cosa di un affascinante unico ma di una difficoltà altrettanto unica perché useremo si mattoni biologici come proteine e materiale genetico preformati ma l’assemblaggio é affar nostro, e per il "contenitore" partiamo proprio da zero, non c'é una cellula madre che si riproduce!
Se vogliamo fare un paragone automobilistico possiamo pensare che il gruppo di Venter ha preso un'auto funzionante e l'ha privata di tutto il superfluo per la guida: ha tolto tutte le plastiche di rivestimento, la carrozzeria, i sedili, il cruscotto, i tergicristalli, i gruppi ottici, verificando che lasciando il telaio, il serbatoio (la fonte energetica), il motore, il gruppo cambio-trasmissione e la centralina si può avere un mezzo funzionante e utile pur con delle forti limitazioni. Questi altri scienziati si sono fatti prestare la centralina da Venter ma tutto il resto, se lo devono fare in casa. Con mezzi di fortuna assemblano il telaio e poi con pezzi comprati in un negozio di ricambi costruiscono anche il sistema motore-trasmissione-cambio. Visto che non hanno gasolio a disposizione provano a sostituirlo alla bell'e meglio con olio da cucina rettificato. La speranza é di produrre un'auto che funziona e far sì di produrla in serie (la riproduzione) e, soprattutto, un investitore che finanzi gli sviluppi successivi in funzione delle necessità del mercato (modifiche trasmesse alla discendenza tramite selezione naturale). E se ci riescono, ecco la vita sintetica, la cellula replicante (e replicantesi)... altro che OGM!
-Nota di approfondimento 
Il DNA é sostanzialmente un codice per costruire proteine. Vi sono anche tratti di DNA non codificanti, i c.d. esoni, con funzioni di controllo dell'espressione genica, così come geni che controllano l'espressione quantitativa o temporale di altri, o i geni HOX che indicano vettori di crescita (tipo: fai crescere qui una gamba, qua invece un'antenna) ma, al livello più basale, il DNA serve per fare polimeri eterogenei di 22 amminoacidi diversi: la sintesi proteica. https://goo.gl/images/q2214D
Il codice si basa su triplette di basi azotate sul DNA, i codoni, che sono trascritti dal RNA messaggero nelle triplette complementari perché le basi azotate si accoppiano solo due a due: adenina con timina e citosina con guanina (l'unica differenza é che nell'RNA la timina é sostituita dall'uracile). Poi, nei ribosomi, la costruzione delle catene di amminoacidi procede in concordanza con le triplette complementari. In realtà, come potete vedere sotto alcuni amminoacidi corrispondono a più triplette e ci sono codoni che indicano un segnale di termine, così come tutte le proteine partono con l'amminoacido metionina (codone AUG).
Qualche anno fa un gruppo di ricerca riuscì a inserire nel DNA di batterio delle basi azotate che non esistono in natura, chiamandole X e Y (...mazza che fantasia!), complementari tra loro. Però il batterio modificato in un aspetto così fondamentale, un vero BMO (basically modified organism), non riusciva a passare le basi innaturali alla discendenza. Recentemente il medesimo gruppo ha pubblicato su Nature un lavoro in cui annuncia che i codoni con le basi azotate sono utilizzate dal batterio per inserire nella catena proteica degli amminoacidi non convenzionali che di norma NON HANNO MAI FATTO PARTE DELLE PROTEINE, da 4 miliardi di anni fa a oggi, gli ncAA (not conventional amino acid).
A me sta cosa mi ha colpito moltissimo e sarebbe battuta da poche cose, in ambito ingegneristico (superconduttori a t° ambiente, transistor fotonici, fotosintesi artificiale a elevata efficienza, accensione di ITER) e non (tracce di microorganismi fossili su Marte, riallacciamenti fibre neurali lese, risoluzione questione palestinese). Pensavo che il legame codoni-amminoacidi fosse casuale, ossia il codice universale fosse nato così una volta e poi restato tale perché utile ma non vi fosse motivo per cui una o più triplette legassero nel citoplasma un amminoacido piuttosto che un altro. Ma evidentemente é implicata una questione di affinità chimica: un DNA con nuove basi può legare ncAA e creare proteine mai viste. Se queste si riveleranno funzionali lo scopriremo, visto che in natura non esistono e tempo per alternative ce n'é stato tanto.
Se saranno utili diventeremo creatori di proteine mai viste prima, un livello di ingegneria genetica fondamentale, da veri demiurghi. Gli organismi con basi artificiali non dovrebbero preoccuparci: se sfuggissero ad un laboratorio non potrebbero riprodurre il proprio DNA, perché le nuove basi in natura non esistono. Ma chissà...😈 https://goo.gl/images/XQwz92

A volte le alterazioni non pretendono di essere tanto fondamentali ma si accontentano (per così dire, é roba di una difficoltà tecnica che posso solo immaginare) di modulare unità biologiche esistenti alla bisogna. Un esempio sono le car T cells che stanno per emergere come possibile cura in certe neoplasie: facendola breve, tutte le neoplasie tendono ad ingannare il nostro sistema immunitario ma io prendo delle cellule deputate alla difesa (linfociti T nello specifico) del paziente ammalato e, per così dire, le istruisco a riconoscere alcune proteine di superficie delle cellule tumorali (se so quali sono e sono in grado di recuperarle per l'allenamento). Dopo il training le reimmetto "potenziate" nel circolo sanguigno pronte alla pugna. Costa tanto e le possibilità di guarigione sono alte come anche gli effetti collaterali. https://goo.gl/images/cvd6mE
L'uso di un sistema biologico pre-formato sta muovendo i primissimi passi, l'idea è trasformare alcuni virus in contenitori a rilascio intelligente trasportatori di ciò che ci serve arrivi dentro le nostre cellule, farmaci presumibilmente. Per ottenere ciò si tenta di ingegnerizzare i capsidi di alcuni virus innocui per sfruttare le interazioni automatiche, non mi viene termine migliore, delle proteine che li costituiscono con le strutture cellulari. Normalmente un virus entra nella cellula non perché la cerca (i virus sono tutti immobili) ma perché letteralmente ci sbatte contro. É l'interazione delle proteine di superficie del virus con la membrana cellulare ha far sì che quest'ultima lo inglobi. Ancora é l'interazione di proteine di superficie del virus con la membrana del vacuolo cellulare che fa esporre sezioni virali che tagliano la struttura e liberano il virione nel citoplasma. Questo poi galleggia senza meta finché non urta le strutture "giuste" o si disgrega liberando il proprio acido nucleico che avrà un analogo comportamento. Insomma niente si muove, niente cerca niente, niente ha un fine: trattasi di una macchina a contatto casuale che se ingegnerizzata ad hoc (e per una volta si parla di strutture proteiche e non acidi nucleici) diventa il più specifico ed efficiente dei carrier per il trasporto di farmaci e quant'altro ci serva potendolo sfruttare anche il tropismo innato del virus stesso: solo certi tessuti, solo cellule con certe caratteristiche, etc.
Già da parecchi anni si usano parenti buoni dell'HIV (retrovirus) ma solo come fissatori di DNA esogeno dentro le cellule degli OGM (l'alternativa é mitragliare le cellule staminali con proiettili cavi di oro, puntando sui grandi numeri) ma questa é un'altra cosa https://goo.gl/images/x7S3hG

Esiste infine un esempio di ingegneria biologica in cui non si agisce sul materiale genetico, ma si opera un taglia e cuci alla bisogna dei tessuti embrionali. Questi ultimi sono programmati per curvarsi in modi precisi in funzione della costituzione del piano corporeo. Già dall'inizio le cellule mesenchimali che costituiranno la matrice tra i diversi organi "sanno" come collettivamente dovranno ripiegarsi e in che direzione o se dovranno restare rettilinee. Un gruppo di ricerca ha sfruttato questa tensione costruendo letteralmente lego biologici facendo sviluppare questi tessuti su strati di fibre di collage e ma si potrà anche pensare di unire scaffold sintetici a cellule deputate a costituire forme specifiche. Un passo verso l'ingegneria dei tessuti e gli organoidi

Paura n°6: nanotecnologie 

Partiamo dalla definizione di nanoparticelle: particelle di dimensioni comprese tra 1 e 100 nanometri (miliardesimi di metro). La definizione sfuma (ma non coincide) con quella di microaggregati, gruppi così esigui di atomi, della medesima specie chimica, tali da mostrare caratteristiche fisiche che non corrispondono a quelle che i medesimi hanno in quantità "avogadriche", come stato fisico (solido-liquido-gassoso) e assorbimento delle frequenze luminose. 
Le nanoparticelle hanno, in media, caratteristiche che non corrispondono esattamente a quelle delle quantità macroscopiche, in particolare per il rapporto superficie-volume e in media, per questo motivo, sono più reattive, inoltre spesso quelle appositamente create hanno in superficie gruppi funzionali ad hoc. https://goo.gl/images/5m6fwX
L'industria le usa da qualche tempo, in particolare l'ossido di titanio, principalmente come micro particelle (quindi con caratteristiche identiche al bulk) ma con l'uso come nano- in ascesa. I lavori in cui si sono notati effetti negativi hanno cominciato ad apparire (ma a che livelli di esposizione? Questi sono riproducibili nella realtà? I lavori sono stati confermati da qualche altro gruppo di lavoro?) e di solito quando ciò accade siamo ai prodromi della paura collettiva, quindi all'ennesimo revival del salutist-natural-veg-crudista e ricordo che io non mangio carne per... i miei motivi. Al di là delle paure é innegabile che le fonti delle nanoparticelle sono molteplici e ci circondano letteralmente https://goo.gl/images/dgSPmZ
 -Nota di approfondimento 
Esiste una sostanziale differenza tra pericolo (hazard) e rischio (risc). La prima parola identifica una maggiore o minore pericolosità intrinseca mentre nel concetto di rischio sono sintetizzati il pericolo, il grado di esposizione ed eventuali caratteristiche intrinseche dell'esposto. Facciamo un esempio: un leone é mooolto pericoloso senza dubbio, ciononostante il rischio di essere divorato da un leone in Europa é bassissimo senza che questo infici la pericolosità del felino. Se però io lavoro come custode in uno zoo il mio risk é incrementato dalle mie particolari condizioni. Ci sono agenzie che si occupano del pericolo come l'AIRC e altre che si occupano di rischio come l'EFSA. Confondere questi 2 concetti crea solo casino, ma é chiaro che bisogna raccogliere i dati e definire i livelli di esposizione e i livelli di rischio per categoria.  https://goo.gl/images/EAVNRY

Cosa sappiamo delle nano-particelle? Per primo che sono tendenzialmente più reattive, per secondo che non sempre é così e che quindi ogni caso va trattato come singolo altrimenti abbiamo creato l'ennesimo Belzebù dopo coloranti, conservanti e OGM. Sappiamo tutto? No, non sappiamo tutto, di alcune cose é ragionevole pensare che, allo stato attuale delle quantità, non ci siano problemi ma un minimo di zona grigia è innegabile, in particolare per le nanoplastiche, le micro preoccupano meno: https://www.efsa.europa.eu/en/press/news/160623 per i fenomeni di depurazione e ancor più incenerimento di rifiuti ad alto tenore di nanomateriali.
Sono una novità? No, la natura ce ne ha sempre fornito una certa dose, ora noi siamo sul punto di aumentarla e diversificarla, come abbiamo sempre fatto con la qualunque, e non abbiamo cominciato da oggi, anche in passato sono esistiti trattamenti con nano-particelle solo che non lo sapevano. L'EFSA ha già iniziato a monitorare la questione e la Commissione europea (lo strano e ibrido esecutivo dell'UE) ha già espresso uno statement in proposito verso Parlamento europeo e Consiglio dell'Unione Europea che sono gli organi legislativi. Alcuni estratti:  

"Overall, it can be concluded that current legislation (tra cui il regolamento REACH) covers to a large extent risks in relation to nanomaterials and that risks can be dealt with under the current legislative framework. However, current legislation may have to be modified in the light of new information becoming available, for example as regards thresholds used in some legislation."
"When an existing chemical substance, already placed on the market as bulk substance, is introduced on the market in a nanomaterial form (nanoform), the registration dossier will have to be updated to include specific properties of the nanoform of that substance. The additional information, including different classification and labelling of the nanoform and additional risk management measures, will need to be included in the registration dossier. The risk management measures and operational conditions will have to be communicated to the supply chain.
"Where the full extent of a risk is unknown, but concerns are so high that risk management measures are considered necessary, as is currently the case for nanomaterials, measures must be based on the precautionary principle."

Non è facile, per me che non sono un addetto ai lavori, comprendere come le raccomandazioni della Commissione Europea possano traslare in comportamenti concreti.
Attualmente, ho letto, per l'uso dei nanomateriali per il miglioramento tecnologico delle tinture bastano le regole del regolamento REACH, per l'utilizzo come biocidi i regolamenti appositi ma corredati di specifici test di sicurezza per l'uso come nanomateriali, per lo smaltimento vengono usati i regolamenti già in atto per le sostanze in generale, per l'uso come miglioranti tecnologici nei tessuti non sono necessari specifici report registrativi, però se vengono utilizzati nanomateriali nei cosmetici, e in ambito food il fatto DEVE ESSERE SPECIFICATO nelle info all'utilizzatore finale. 
L'impressione che ne traggo è che si sta vigilando ma che sussiste ancora un gap conoscitivo, forse soprattutto sui livelli di esposizione ambientale e su come plasmare in maniera specifica i lavori: i gap conoscitivi, a noi, ci spaventano di più dei nemici cui abbiamo già dato un nome. Così gli interferenti endocrini o il famigerato effetto cocktail (siamo più o meno sul livello delle nanotecnologie in quanto a stato delle conoscenze) ci spaventano più del sovrappeso e dell'eccesso calorico o di zuccheri, aspetti che sappiamo per certo essere COMPROVATI fattori di rischio per un mucchio di roba. Così guardiamo che nell'estratto non ci sia glutammato che abbonda anche nel formaggio grana e ci curiamo meno di insaccati e carne abbrustolita ("cosa vuoi che sia una volta ogni tanto?" atteggiamento giusto, tra l'altro). Oppure ci nutriamo di naturalità ricercando il biologico e, nel frattempo fumiamo (il Killer per antonomasia), non muoviamo un passo (siamo forgiati dall'evoluzione per il contrario) e comunque respiriamo un'aria con livelli di particolato spesso oltre i limiti stabiliti dall'OMS, ricordando che non parrebbe esistere un limite inferiore di PM2,5 non biologicamente attivo (meglio comunque meno che più, ovviamente) https://goo.gl/images/vEVRLY
Ma é la vita che é fattore di rischio per la morte e ci va anche bene da queste latitudini: si muore di più nei paesi poveri dove le stufe domestiche a carbonella o legno e le lampade a cherosene convivono con un enorme rischio di tossinfezioni alimentari. 
Comunque di nanotecnologie se ne parlerà sempre di più perché sono un'occasione per miglioramenti in vasti ambiti, dal packaging dei cibi, alla texture e lucentezza dei belletti femminili, alle caratteristiche tecniche dei materiali. Sperem 😜
-Nota di approfondimento 
Gli ambiti di utilizzo più consolidato dei nanomateriali sono i tessuti e le tinture. In entrambi i casi l'utilizzo di nanoparticelle può consentire specifici target tecnologici (es. idrorepellenza) o può consentire di raggiungere tali target con l'uso di minor materiale. Invece l'uso di nanoparticelle in forma di farmaci può consentirci di ottenere carriers efficaci per colpire le neoplasie con dosaggi totali più bassi di farmaco o di riuscire a penetrare specifici distretti corporei (ad es. la barriera emato-encefalica), ma non é detto che la forma nano- di per sé sia migliorativa e il dossier registrativo, dovendo in primis dimostrare l'innocuità della terapia (o meglio un rapporto costi-benefici favorevole), rischia di essere ancora più dilazionato nel tempo e costoso. 
Il biossido di titanio é un materiale molto interessante perché la sua forma nanoparticellare consente di amplificarne gli effetti di auto pulizia: il materiale, attivato dalla luce, reagisce con la sporcizia ossidandola in acqua e CO2, facilitandone l'eliminazione. Inoltre é lo sbiancante per antonomasia e, usato in forma di nanoparticelle, consente di produrre creme solari trasparenti e leggere (senza altre sostanze chimiche) di inarrivabile capacità filtrante i raggi UV.
L'argento in nanoparticelle fornisce più facilmente gli ioni ad attività antibatterica per cui é famoso, inoltre fornendo conduttività elettrica é antistatico.
Il biossido di silicio é invece il materiale refrattario per antonomasia e la sua nano-frammentazione ne consente di trasporre le sue qualità dai forni e superfici a pitture, fibre tessili e anche cibi (già ora anche se, teoricamente, ancora non nano-)


Paura n°7: il disastro prossimo venturo

La percezione della fine imminente, della fine di tutto e di tutti, accarezza l'uomo fin dai tempi antichi. Forse una consapevolezza della fragilità propria e del proprio, allora, piccolo mondo. La storia ha visto in effetti tante fini, che io sappia però sono sempre arrivate impreviste, le Cassandre hanno sempre sbagliato i tempi o si sono arrogate la previsione a posteriori. Ora c'é qualcosa di diverso in questo refrain: al posto di chierici pazzi ci sono una comunità di scienziati (in realtà pazzi che predicono l'imminente fine del mondo ce ne sono ancora) e la fine del mondo sarebbe realmente la fine del nostro modo di stare in questo mondo invece di una fine fisica del medesimo.
Le Cassandre dicono che il sistema attuale, che si basa su una crescita infinita del PIL, crollerà. La previsione non é fatta da un fanatico religioso millenarista ma da un lavoro del MIT che ha ormai parecchi anni, una simulazione dei grandi sistemi chiamata World3 https://goo.gl/images/f2xUYRCi sono tanti critici sul fatto che un sistema di equazioni differenziali possa riprodurre il futuro del mondo e, in effetti, é un modello semplificato con parametri come popolazione, consumo di risorse, etc. Se si lancia questo modello e si settano i parametri sul sistema Terra viene fuori, intorno al 2020, un crollo ingente della popolazione perché si superano i limiti di sostenibilità del sistema. 
Non é che un modello semplificato può bastare a determinare il futuro, per quanto appaia plausibile. Per ora però pare che il mondo stia seguendo abbastanza fedelmente le previsioni dello stesso anche se ciò non significa che succederà anche in futuro, di seguito un articolo del Guardian a proposito https://www.theguardian.com/commentisfree/2014/sep/02/limits-to-growth-was-right-new-research-shows-were-nearing-collapse
Ora, se chiedi a tutti quelli che ne hanno coscienza, a parte qualche tecno-ottimista a oltranza, tutti ti diranno che, avanti a questa stregua, non si potrà andare per sempre. Siamo più o meno tutti consapevoli che se tutto il mondo vorrà consumare risorse come un cittadino Europeo o addirittura uno Statunitense le risorse per tutti non basteranno. In realtà potremo aumentare ancora le rese con nuove tecnologie, migliorare le catene di distribuzione che portano a grandi sprechi di cibo nei paesi in via di sviluppo e instillare un consumo che pesi, magari con sistemi premianti, una produzione-consumo a impatto più basso possibile (vallo a dire a un Nigeriano o a un Cinese che vogliono finalmente mangiare carne tutti i giorni!). Ci sono ancora foreste da tagliare, praterie da sfruttare, aree umide da bonificare, distruggendo però anche equilibri che, alla fine servono anche a noi. Questo senza considerare giudizi di valore su specie e ecosistemi.
L’agricoltura é sfruttamento di un sistema produttivo cui non viene fatto raggiungere un climax. Anche la più "biologica" (termine che mi risulta francamente fastidioso) comporta una diminuzione della biodiversità rispetto a un campo incolto. Ma non possiamo fare a meno di agricoltura, come mangiamo?
L’allevamento é molto peggio, si stima che quasi il 40% di tutto il territorio degli States sia utilizzato per produrre le risorse per le decine di milioni di animali da reddito che popolano il paese. Qui l'ideale sarebbe tornare ad un allevamento estensivo con uso a pascolo di terreni non remunerativi dal punto di vista agricolo. E qui potremmo anche farlo ma la carne costerebbe molto di più é diverrebbe un prodotto di consumo saltuario. Quanti sarebbero disposti? (torno a chiederlo al Cinese e al Nigeriano...).
Vi ho sparato tutte queste infografiche per mostrare come alcuni tipi di alimenti abbiano un carbon footprint, e ancor più importante, un ecological footprint molto elevato. La carne di manzo e vitello si distinguono per impatto con altri prodotti di origine animale molto più distanti. Questi specchietti andrebbero corretti per densità calorica e proteica, che un uomo non può campare di insalata, ma di patate e qualche uovo sì, di legumi + cereali pure (aggiungendo qualche frutto/verdura cruda di stagione). Ancora una volta bisogna vedere chi sarà disposto a fare una scelta alimentare che corrisponda alla massima sostenibilità possibile. I bovini poi eruttano metano in grandi quantità e il loro potenziale climalterante mondiale é pari a quello della circolazione automobilistica https://goo.gl/images/mVHoCY (notare che il riso é il "bovino" tra le colture).
Ma mettiamo che non si riesca a cambiare nulla, poniamo che Cinesi, Indiani, Indonesiani, Brasiliani e Africani non recedano dalla speranza di consumare (e sprecare) come uno statunitense e, col tempo, ci si avvicinino; mettiamo che l’economia circolare non decolli mai del tutto e i danni agli ecosistemi divengano tali da conferire feed-back evidenti, non come ora che riusciamo a compensare, intendo cose tipo mari saturi di alghe e meduse; mettiamo che nella transizione alle rinnovabili i paesi in via di sviluppo non siano disposti ad accettare dei legacci alla produzione energetica e alla ricchezza e spingano sull'acceleratore della crescita a ogni costo, a ogni costo...
Allora dovremmo buttare giù tutte le foreste per nutrire i bovini, usare tutta la tecnologia possibile per aumentare le rese delle colture, alzare muri costieri e infrastrutture per proteggerci (male) dal global warming, esaurire litio e cobalto per costruire milioni di auto elettriche e nulla basterebbe, nulla eccetto che avere "tutta l'energia del mondo". Se avessimo una infinita quantità di energia a basso costo potremmo probabilmente prosperare trasformando la Terra in Apokolips https://goo.gl/images/1i9oAX
Però, a meno che ITER non inizi a funzionare da subito con grande efficienza e/o le celle fotovoltaiche a perovskite non riescano a durare più di qualche settimana, l'EROEI ci sta fottendo.

L'EROEI é il rapporto tra l’energia prodotta e quella usata per produrla. Non é così facile calcolarlo perché al denominatore, a un certo punto bisogna fermarsi, altrimenti arriviamo a tenere in considerazione la fatica fatta dalla nonna dell'autista che trasporta il materiale ferroso per costruire le infrastrutture dello studio dell'ingegnere che progetta l’impianto, però, restando nell’ambito della stessa risorsa (es. petrolio), il calo é evidentemente 
Il problema é che calando l'EROEI diminuisce l’energia netta a disposizione e l’energia netta é l'olio dell’economia (plausibilmente é così ma in che misura non saprei). 
Quindi saremmo fregati un'altra volta, no Apokolips: se va male va male anche per noi, non solo per gli ecosistemi.
Affinare l’efficienza dei processi sarebbe una gran cosa ma, 1-bisogna vedere se si riesce a compensare il calo di energia netta e molti lo giudicano perlomeno improbabile, 2-se i Cinesi, Indiani, Indonesiani, Brasiliani e gli Africani non ci aiutano non basterebbe comunque. 
Insomma ovunque ci si giri si vede il baratro, se hanno ragione i post-picchisti siamo sull'orlo, se no mancano comunque poche generazioni, con il 2100 che vedrà un innalzamento dei mari nell'ordine del metro a complicare il tutto. 
Io, personalmente, vedo due speranze: la prima si chiama "allungare il brodo", la seconda "ora che vedo, credo", e potrebbero sussistere contemporaneamente.
Allungare il brodo significa guadagnare tempo sperando che la popolazione e i consumi pro-capite si stabilizzino ad un livello, se non sostenibile a oltranza, perlomeno compatibile con una lenta discesa, non un "cliff" (che qualcuno paventa come imminente) ma uno "slope". Questo darebbe tempo per migliorare le tecnologie, l’efficienza energetica e la quota di rinnovabili fino a chissà-cosa-succederà.
Ora che vedo, credo potrebbe essere il "regalo" che i cambiamenti climatici ci forniranno: di fronte a disastri sempre più ricorrenti chi se ne fregherà del fatto che una rapida transizione energetica vorrà dire far viaggiare più le idee che merci e persone, del fatto che comporterà crescere qualche punto di PIL in meno, e del fatto che sarà necessario compensare, con distese di costose batterie, l'intermittenza delle fonti rinnovabili. Checcenefregherà di fronte ai disastri!?
Non sappiamo come andrà a finire, però, come ha fatto presente uno scienziato (di cui ho perso il nome), l'Uomo ha sempre imparato per errori ma quando l'errore comporta la fine della civiltà come la conosciamo questa tattica potrebbe non rivelarsi la migliore...

Nessun commento:

Posta un commento