Farhad Manjoo:

Consider all the technologies we think we want — not just better and more useful phones, but cars that drive themselves, smart assistants you control through voice, or household appliances that you can monitor and manage from afar. Many will have cameras, microphones and sensors gathering more data, and an ever-more-sophisticated mining effort to make sense of it all. Everyday devices will be recording and analyzing your every utterance and action. […]

But if Apple is forced to break its own security to get inside a phone that it had promised users was inviolable, the supposed safety of the always-watching future starts to fall apart. If every device can monitor you, and if they can all be tapped by law enforcement officials under court order, can anyone ever have a truly private conversation? Are we building a world in which there’s no longer any room for keeping secrets?

“This case can’t be a one-time deal,” said Neil Richards, a professor at the Washington University School of Law. “This is about the future.”

Mantellini:

La scelta di Tim Cook mi pare abbia due caratteristiche interessanti. La prima è che non è recentissima. È stata ingegnerizzata (per scrivere software ci vuole tempo) almeno un paio di anni fa e resa pubblica a settembre 2014 con la presentazione di iOS 8. E quando è stata presa una simile decisione di irrobustire le difese crittografiche dei prodotti Apple? Semplice: appena ci si è resi conto – grazie alle rivelazioni di Edward Snowden – che il governo USA attraverso la sua Agenzia per la Sicurezza Nazionale aveva rubato o era in grado di rubare tutti i dati contenuti in tutti i telefoni Apple in tutto il pianeta. In quei giorni avevamo realizzato di essere finalmente tutti uguali: tutti potenziali terroristi dentro un gigantesco database pienissimo di informazioni irrilevanti e nostre.

La seconda caratteristica che mi pare degna di nota è che quella di Apple non è la semplice reazione dell’amante tradito ma una strategia di lungo periodo, l’unica possibile per mantenere il proprio rapporto fiduciario con la clientela. L’idea secondo la quale backdoor di Stato introdotte nei sistemi operativi dei nostri telefoni (che sono ormai parti pulsanti fra le più importanti della nostra vita di relazione) siano lecite e possano essere tollerate in nome della presunta autorevolezza di agenzie come NSA (o peggio delle prerogative di tecnocontrollo di decine di regimi sanguinari in tutto il pianeta) è talmente naïve da poter convincere forse alcuni commentatori occasionali ma per il resto del tutto priva di senso. Le implicazioni a cascata di simili scelte, dentro l’attuale era della sorveglianza, sono talmente tante e talmente rapide da scardinare qualsiasi modello di business legato alla comunicazione e questo in nome di una presunta sicurezza tutta da verificare e già mille volte smentita dai fatti, dalle Torri Gemelle fino ad oggi.

Non riguarda un singolo iPhone

Un riassunto per capire meglio la vicenda FBI/Apple. Prima di iniziare, però, una citazione di Bruche Schneier:

In generale, la privacy è qualcosa che le persone tendono a sottovalutare finché non ce l’hanno più. Argomenti come “io non ho nulla da nascondere” sono comuni, ma non sono davvero validi. Chi vive in un regime di costante sorveglianza sa che la privacy non è avere qualcosa da nascondere. Riguarda la propria individualità e la propria autonomia personale. Riguarda l’essere in grado di decidere cosa rivelare di se stessi e in quali termini. Riguarda l’essere liberi come individuo, senza essere costretti a giustificarsi continuamente a qualcuno che ci osserva.


L’FBI vuole accedere a dei dati contenuti dentro l’iPhone 5c di Syed Rizwan Farouk, uno degli attentatori di San Bernardino. Questi dati — messaggi, foto, etc.; cifrati — non sono stati salvati su iCloud ma si trovano dentro l’iPhone. Apple ha già dato accesso all’FBI ai dati che si trovavano su iCloud ma l’FBI ha avuto problemi a bypassare le misure di sicurezza dell’iPhone e, di conseguenza, ad accedere ai dati che risiedono solo sul device in questione.

Per accedere ai dati di un iPhone 5c sono necessari “solo” due ingredienti: il passcode dell’utente e il codice del device. A complicare le cose sono le misure di sicurezza adottate da Apple: il fatto che i dati vengano cancellati dopo 10 tentativi, o che fra un tentativo e l’altro sia necessario aspettare 5 secondi. Ci vorrebbero dunque anni per l’FBI a indovinare il codice tramite brute force (provando ogni possibile combinazione del codice).

L’iPhone in questione è un 5c, quindi senza Secure Enclave. Come spiega Ben Thompson, la Secure Enclave è un chip A7 che agisce come computer indipendente, con un proprio sistema operativo, che renderebbe molto più complesso l’accesso ai dati. Nel caso di un iPhone 6s, dotato di Secure Enclave, sarebbero necessari tre ingredienti per decrittografare i dati: la chiave del device, il passcode dell’utente e una chiave casuale, generata dalla Secure Enclave, sconosciuta a Apple stessa. Se l’attentatore avesse avuto un iPhone 6s o uno qualsiasi degli iPhone più recenti, sarebbe stato impossibile per Apple cooperare con l’FBI — anche se avesse voluto — se non inserendo una backdoor ancora più insicura e terrificante nel sistema operativo: una chiave fissa e unica. Si può fare, però, e il pericolo principale è che l’FBI sfrutti questo caso come precedente — per chiedere un qualcosa di ancora più insicuro.


L’FBI, dunque, come spiega Fabio Chiusi, vuole tre cose da Apple:

  1. Rimuovere o disabilitare la funzione di auto-distruzione dei contenuti.
  2. Consentire all’FBI di provare a inserire la password corretta (in sostanza, abilitare tentativi infiniti di trovarla, una tecnica detta “brute force”).
  3. Garantire che non ci siano le attese (delay) tra un tentativo e l’altro attualmente previste da iOS, a meno di quelle necessarie al funzionamento dell’hardware.

L’FBI chiede a Apple di disabilitare la funzione che elimina tutti i dati di un iPhone dopo dieci tentativi di accesso falliti — in modo da poter provare tutte le combinazioni possibili e accedere al device tramite brute force. Apple non può semplicemente disabilitare la funzionalità: solo l’utente (che l’ha attivata) può farlo. Affinché questa misura di sicurezza possa essere bypassata, è necessario che Apple scriva un software che sia in grado di disabilitare una delle funzionalità di sicurezza di iOS.

Il che significa — punto e basta, senza sfumature — creare una backdoor. La Casa Bianca si è difesa spiegando che in realtà vuole l’accesso a un solo, singolo, device — l’iPhone 5c in questione — ma Cook è stato ben chiaro: non è così semplice.

Il governo suggerisce che questo strumento potrebbe essere usato solo una volta, su unico telefono. Ma è semplicemente falso. Una volta creata, la stessa tecnica potrebbe essere usata ancora e ancora, su un qualunque numero di device. Nel mondo fisico, sarebbe l’equivalente di un passe-partout, in grado di aprire centinaia di milioni di lucchetti – di ristorante e banche, negozi e case. Nessuna persona ragionevole lo accetterebbe.

Una volta che Apple sviluppa questo software, crea un precedente e lo rende disponibile a qualsiasi soggetto e situazione. Rende tutti gli iPhone — di tutti i cittadini — insicuri. Potenzialmente un qualsiasi hacker potrebbe sfruttare questa falla per ottenere i dati di un qualsiasi altro utente. Non solo: un governo meno democratico potrebbe a sua volta sfruttare questa porta ai dati dei cittadini. Quando si trattano questi temi bisogna sempre ricordarsi che le misure che prendiamo dalle nostre parti hanno ripercussioni in luoghi meno liberi del pianeta.


La Electronic Frontier Foundation (nota a margine: è il momento di fare una donazione a loro se non l’avete mai fatto — io ho impostato a inizio anno una donazione ricorrente di $10. Vi mandano pure a casa una bellissima maglietta, per ringraziarvi) è intervenuta a sostegno di Apple:

Supportiamo Apple perché il governo sta chiedendo più di un semplice aiuto da parte di Apple. Per la prima volta, il governo sta chiedendo a Apple di scrivere un nuovo codice che elimina le funzioni di base di sicurezza dell’iPhone — funzioni che proteggono tutti noi. Essenzialmente, il governo sta chiedendo a Apple di creare una master key così che possa accedere a un singolo telefono. Una volta che questa chiave esiste, siamo certi che il governo chiederà di farne uso ancora e ancora, per altri telefoni, e utilizzerà questo precedente contro qualsiasi altro software o device che decida di offrire una protezione maggiore.


(Nota a margine numero due: quello che scrive Beppe Severgnigni questa mattina sul Corriere è uno schifo. Non ha senso, e dimostra che non ne capisce nulla di come funziona tecnicamente la crittografia. È approssimativo — crea disinformazione e danni attorno a un argomento già poco chiaro e complesso per il cittadino comune, spesso affrontato con disinteresse perché liquidato con un “ma io non ho nulla da nascondere”.)


Tutto ciò non ha a che fare con l’iPhone 5c in questione. Come la vicenda dell’NSA e di Snowden dovrebbe aver insegnato, l’FBI sta utilizzando il terrorismo come scusa per potere accedere ai dati di chiunque quando gli pare e piace, quando ritengono necessario.

Apple si trova in una posizione unica rispetto alle altre aziende tecnologiche di simili dimensioni: il suo business model non dipende minimamente dai dati degli utenti e per questo può lottare per lasciarli a chi appartengono. La risposta del CEO di Google è — in confronto — debole: piena di could (e fornita via twitter…???).


La crittografia va difesa anche se a farne uso sono anche i terroristi. L’anche, in quella frase, è importante: perché la crittografia giova innanzitutto noi, i cittadini.

Anche se Apple venisse costretta a inserire una backdoor nell’iPhone un’organizzazione terroristica troverebbe (o potrebbe sviluppare) alternative per comunicare in sicurezza. Così facendo, il cittadino normale ci rimetterebbe senza alcun vantaggio per la sicurezza generale.

Come spiega Dan Gillmor:

Un giorno si potrebbe venire a sapere che un terrorista ha usato sistemi potenti di criptaggio, e la risposta giusta sarebbe: “Sì, lo ha fatto, ma dobbiamo comunque proteggere questi sistemi di criptaggio, perché indebolirli peggiorerebbe soltanto le cose.” Perché? Perché il criptaggio è davvero una questione semplice, non importa quanto funzionari legislativi desiderosi di diffondere la paura o politici codardi e ostinatamente ignoranti vadano sbandierando sul bisogno di backdoor nelle comunicazioni protette. La scelta è fondamentalmente binaria per molti esperti in materia. Non si possono alterare i sistemi di criptaggio in maniera significativa senza renderci tutti meno sicuri, perché i cattivi poi sfrutteranno le vulnerabilità introdotte nel processo. Non è una questione di sicurezza verso privacy, come gli esperti hanno spiegato ormai innumerevoli volte, è una questione di sicurezza contro sicurezza.

Sono passati vent’anni da quando John Perry Barlow scrisse la Dichiarazione d’indipendenza del Cyberspazio. La lesse a Davos, in Svizzera, l’8 Febbraio del 1996. In questo video, del 2013, la rilegge:

Quanto dichiarato è ancora attuale e valido — le motivazioni dei governi per limitare la libertà in rete sono le stesse di allora: copyright e sicurezza (terrorismo). È un discorso che può suonare altisonante, retorico, ma che personalmente mi ha lasciato — tutte le volte che l’ho letto — speranzoso e combattivo.

In un post su Boing Boing dell’altro giorno, Barlow ha riflettuto sul testo a vent’anni di distanza:

Actually, things have turned out rather as I expected they might 20 years ago. The War between the Control Freaks and the Forces of Open-ness, whether of code, government, or expression, remains the same dead heat it’s been stuck on all these years.

Which is enough to make me believe that my vision of an Internet that will one day convey to every human mind the Right to Know all that curiosity might propel them toward, a “world where anyone, anywhere may express his or her beliefs, no matter how singular, without fear of being coerced into silence or conformity.”

Vincenzo Latronico:

Sì, sappiamo che dovremmo usare password più lunghe e difficili, e usarne di diverse in ogni diversa occasione, e aggiornare regolarmente tutti i software, e installare sempre gli antivirus che spesso non servono a niente, perché le minacce più gravi sono le più nuove. Dovremmo, dovremmo.

Però poi ci diciamo: perché qualcuno dovrebbe attaccare proprio me? Perché dovrebbero provare a indovinare la mia password, a infilarsi nella mia USB stick? Luciano Floridi, uno dei massimi teorici di etica informatica, ha detto che in rete nessuno si sente Moby Dick: tutti si sentono sardine, protetti dal banco tutt’intorno. Con uno spirito simile spesso lasciavo aperta la porta del mio vecchio appartamento, quando dovevo prestare le chiavi a degli ospiti, confidando che nessuno sarebbe arrivato all’ultimo piano della mia scala nella mia palazzina solo per provare la maniglia di una porta a caso nella speranza di trovarla aperta.

Come moltissime analogie usate per capire le questioni della rete, anche questa sembra intuitiva ma non funziona.

TidBITS:

Google, Microsoft, Facebook, and Twitter. I’ll add Amazon and Samsung. In each case, these companies’ business models don’t put them in nearly the same position as Apple.

Google is fundamentally an advertising company that collects data on its users. That information can’t be encrypted so only the user can see it, since that would prevent Google from accessing it and using it for targeted advertising. Even removing the ad issue, some of Google’s services fundamentally won’t work without Google having access to the underlying data. […]

Apple is nearly unique among technology leaders in that it’s high profile, has revenue lines that don’t rely on compromising privacy, and sells products that are squarely in the crosshairs of the encryption debate. Because of this, Apple comes from a far more defensible position, especially now that the company is dropping its iAd App Network.

La crittografia va difesa, anche se la usano i terroristi

Dan Gillmor, tradotto da Valigia Blu:

Un giorno si potrebbe venire a sapere che un terrorista ha usato sistemi potenti di criptaggio, e la risposta giusta sarebbe: “Sì, lo ha fatto, ma dobbiamo comunque proteggere questi sistemi di criptaggio, perché indebolirli peggiorerebbe soltanto le cose.” Perché? Perché il criptaggio è davvero una questione semplice, non importa quanto funzionari legislativi desiderosi di diffondere la paura o politici codardi e ostinatamente ignoranti vadano sbandierando sul bisogno di backdoor nelle comunicazioni protette. La scelta è fondamentalmente binaria per molti esperti in materia. Non si possono alterare i sistemi di criptaggio in maniera significativa senza renderci tutti meno sicuri, perché i cattivi poi sfrutteranno le vulnerabilità introdotte nel processo. Non è una questione di sicurezza verso privacy, come gli esperti hanno spiegato ormai innumerevoli volte, è una questione di sicurezza contro sicurezza. […]

È triste, ma pochi media mainstream hanno cercato di spiegare il problema del criptaggio in modo aderente alla realtà. Citare persone che mentono è già abbastanza brutto, ma non spiegare la realtà può essere anche peggiore.

I giornalisti, in generale, non hanno ricordato al pubblico che usiamo sistemi potenti di criptaggio ogni giorno facendo shopping online. Non hanno spiegato perché i whistleblower, che con coraggio raccontano al pubblico e alla stampa il pessimo comportamento dei governi, delle corporation o di altre grandi istituzioni, sono in grave pericolo in uno stato di sorveglianza. Non hanno unito i puntini fra la copertura sensazionalistica dell’episodio di hacking alla Sony e il bisogno delle aziende di fare affari in modo sicuro, ad esempio. Abbiamo bisogno di sicurezza maggiore e migliore nelle nostre vite, non minore e peggiore.

L’argomento “la crittografia è pericolosa perché anche i terroristi possono farne uso” è alquanto stolido: togliere la crittografia di default ci renderebbe tutti più insicuri, ma non impedirebbe a organizzazioni terroristiche di ricorrervi. Queste potrebbero utilizzare gli strumenti distribuiti da altri paesi, dove la crittografia non sarebbe illegale, o costruirsene di propri (e di fatto, lo fanno).

In difesa di quest’assurdità ho letto uno degli articoli più stupidi su cui mi sia capitato di posare gli occhi negli ultimi anni, sul Telegraph solo settimana scorsa, dal sobrio titolo “Perché la Silicon Valley sta aiutando gli jihadisti?“. Di seguito un allucinante paragrafo:

What will it take? 129 dead on American soil? 129 killed in California? What level of atrocity, what location will it take for the Gods of Silicon Valley to wake up to the dangerous game they are playing by plunging their apps and emails ever deeper into encryption, so allowing jihadists to plot behind an impenetrable wall? […]

It goes back to Edward Snowden, the weaselly inadequate whose grasp for posterity has proved a boon for Isil. They should be gratefully chanting his name in Raqqa, for it was Snowden’s revelations about government surveillance methods that triggered this extraordinary race towards deeper encryption.

Provo vergogna a copiare e incollare quelle frasi su queste pagine — mi chiedo come si possa concepire di scriverle. La risposta di TechDir è alquanto ficcante:

How many hacked credit cards, medical information and email accounts will it take for the Gods of Silicon Valley to wake up and recognize they need to better protect user data. Because that’s what’s actually happening. Encryption is not about “allowing jihadists to plot behind an impenetrable wall” it’s about protecting your data. […]

But, more to the point, undermining encryption makes everyone significantly less safe. The whole idea that weakening encryption makes people more safe is profoundly ignorant.

La sorveglianza di massa non è la soluzione al terrorismo, e il modo in cui la stampa generalista la sta affrontato è piuttosto sconfortante. Considerato poi che sono argomenti che, generalmente, suscitano sbadiglio.

Credere che si possa stare, sorvegliando tutti, completamente sicuri è un’idea fanciullesca. Non bisogna, come scrive Luca De Biase, rinunciare alla libertà:

Si può sostenere che la riduzione di libertà introdotta con la sorveglianza di massa possa essere temporanea, fino alla fine della guerra. E che aumenti le probabilità di scoprire e contrastare i terroristi. Oppure si può sostenere che quella riduzione di libertà tende poi a diventare stabile e che la sorveglianza di massa non faccia che aumentare il potere dei servizi segreti. L’esperienza aiuta a capire quale sia la valutazione giusta.

L’esperienza americana è chiara. La sorveglianza tecnologica “di massa” era stata introdotta, con Echelon, molto prima dell’11 settembre 2001. E la Nsa aveva iniziato il suo progetto di sorveglianza via internet prima del più terribile atto di terrorismo della storia americana. Secondo alcune inchieste (vedi Washington Post), in più occasioni è stato provato che le notizie potenzialmente utili per fermare i terroristi erano in possesso dei servizi americani, archiviate da qualche parte e non utilizzate a dovere. Anche per la scarsa collaborazione tra servizi, dovuta a una certa loro idea di potere. Dopo di allora, l’attività di sorveglianza di massa dell’Nsa si è sviluppata oltre ogni senso del limite, come ha provato Edward Snowden. E il tentativo di sradicare la sorveglianza di massa operato in qualche occasione dall’attuale amministrazione si è arenato di fronte al “ricatto” dei servizi formulato in modo tale da far pensare che ridurre quella sorveglianza significhi aumentare i rischi di attentati.

Maciej Cegłowski ha recentemente tenuto due talk interessanti su privacy e Internet — su come le piattaforme che utilizziamo dispongono dei dati che gli regaliamo. Uno è ‘What happens next will amaze you‘, l’altro è Haunted by data (disponibile in video).

Invece di leggi stupide come quella dei cookie — che nulla fa né per proteggere la privacy delle persone, né per informare e consapevolizzare — Maciej propone dei diritti dell’utente sui propri dati:

There are a few guiding principles we should follow in any attempt at regulating the Internet.

The goal of our laws should be to reduce the number of irrevocable decisions we make, and enforce the same kind of natural forgetfulness that we enjoy offline. […]

Laws should apply to how data is stored, not how it’s collected. There are a thousand and one ways to collect data, but ultimately you either store it or you don’t. Regulating the database makes laws much harder to circumvent.

Leggi che regolino come i dati vengono e possono essere immagazzinati, invece di occuparsi di come questi vengono raccolti. Maciej propone:

  • Il diritto al download dei dati che si sono forniti alla piattaforma, in un formato elettronico usabile.
  • Il diritto a cancellare il proprio account e qualsiasi dato ad esso associato, in qualsiasi momento.
  • Limiti sulla raccolta di dati “in background”. Tutti quei dati non esplicitamente condivisi dall’utente ma raccolti in background — come: IP, posizione, ricerche recenti, pagine cliccate, etc. — dovrebbero essere conservati per un periodo limitato di tempo.
  • Il diritto di andare offline. Ogni device che si connette a Internet (anche una lampadina WiFi) dovrebbe poter andare offline.
  • Blocco dell’ad-tracking di terze parti. I siti dovrebbero poter fornire pubblicità solo sulla base di due principi: il contenuto della pagina stessa, e dati che il sito in questione — non un network terzo — ha sul visitatore.

Apple ha aggiornato la privacy policy, sul proprio sito. Per la prima volta è chiara e leggibile, non completamente in legalese.

The Awl nota ci sarebbe bisogno di un’opzione per la privacy “ritardata”: che faccia in modo che i post che oggi sono pubblici fra un anno siano privati. È un suggerimento a seguito dell’idea di Twitter di aprire l’accesso via API a tutti i tweet pubblicati sulla piattaforma dal 2006.

Twitter is a massive rolling context experiment, its conversations and subjects and audiences materializing and disintegrating constantly; a single user’s Twitter archive is a series of permanent and public contributions to discussions that have long since ended. A user’s posts referencing the Oscars also reference other users’ posts from the same time, and are experienced first in full transcript. In the archives, however, each speaker is isolated to the point of incoherence.

In effetti a volte capito su frammenti scritti anni e anni fa dei quali neppure io capisco più il senso.

Dean Murphy, dopo aver sperimentato per pochi minuti con i content blockers:

After turning off all 3rd party scripts, the homepage took 2 seconds to load, down from 11 seconds.

Mi sembra chiaro da ciò perché Apple li abbia aggiunti su Safari. C’è un guadagno sostanziale in privacy e velocità.

La Electronic Frontier Foundation ha dato un voto a diverse aziende, a seconda di come rispondono alle richieste dei governi di fornire i dati dei loro utenti, e di come difendono e avvisano quest’ultimi in caso ciò avvenga.

Apple, come Dropbox, è — secondo i parametri utilizzati dalla EEF — virtuosa. Al contrario, Google, Microsoft e Amazon non se la cavano granché. Anche Slack non è ottimo, nonostante abbiano recentemente aggiunto la dichiarazione dei diritti umani ai loro TOS.

I buoni e i cattivi

“You might like these so-called free services, but we don’t think they’re worth having your email or your search history or now even your family photos data-mined and sold off for God knows what advertising purpose.” — Tim Cook

Trovo abbastanza fastidiosa la dichiarazione di Tim Cook sulle altre aziende cattive della Silicon Valley che rivendono i nostri dati. Se è vero che l’uso che Google fa dei dati che raccoglie va ben oltre anche solo le intenzioni di Apple, non credo Apple, o Tim Cook, si trovino nella condizione di fare la morale a Google o altre aziende . Oltretutto l’uso dei dati degli utenti è inevitabile per prodotti come Google Photos che grazie al machine learning riescono a organizzarci la libreria fotografica senza alcuno sforzo.

Apple dovrebbe fare più di queste cose, restando ovviamente lontana dai pubblicitari. Del resto Siri ha bisogno dei dati degli utenti per funzionare, e tutto sta (beh, non che sia facile) nel riuscire a trovare un bilancio, fra schedare gli utenti e quantità di dati minimi necessari per offrire un servizio decente. Il commento di Gruber, sotto questo punto di vista, è condivisibile:

Apple needs to provide best-of-breed services and privacy, not second-best-but-more-private services. Many people will and do choose convenience and reliability over privacy. Apple’s superior position on privacy needs to be the icing on the cake, not their primary selling point.

Se Apple vuole competere con Google, deve riuscire a uguagliare l’offerta offrendo prodotti altrettanto validi — anche nella cloud e sul web dove, ahimè, non sempre ci riesce. La privacy deve essere la ciliegina sulla torta, non il solo punto di forza. Nessuno — a parte un paio di geek — sceglierà iCloud perché è migliore per la privacy, ma in molti sceglieranno Google Photos perché offre spazio illimitato e organizza senza alcuno sforzo le foto.

Edward Snowden sul “ma tanto io non ho nulla da nascondere”

Arguing that you don’t care about the right to privacy because you have nothing to hide is no different than saying you don’t care about free speech because you have nothing to say. — Edward Snowden, in un AMA su Reddit poche ore fa.

Uomo di vetro

In general, privacy is something people tend to undervalue until they don’t have it anymore. Arguments such as “I have nothing to hide” are common, but aren’t really true. People living under constant surveillance quickly realise that privacy isn’t about having something to hide. It’s about individuality and personal autonomy. It’s about being able to decide who to reveal yourself to and under what terms. It’s about being free to be an individual and not having to constantly justify yourself to some overseer. Bruche Schneier