Motori di ricerca

Open non significa libero, pubblicato non significa pubblico. La gratuità online è una truffa!

Ippolita

bigG

Sono passati alcuni anni da quando Ippolita ha cominciato a fare la distinzione tra l'apertura al «libero mercato», propugnata dai guru del movimento open source, e la libertà che il movimento del software libero persegue ponendola come base della propria visione dei mondi digitali. Il software libero è una questione di libertà, non di prezzo. Per un decennio si è potuto pensare che il problema riguardasse solo i geek del computer e altri smanettoni. Oggi è evidente che ci tocca tutti. I grandi intermediari digitali si sono trasformati negli occhi, nelle orecchie o, per lo meno, negli occhiali di tutti gli utenti di Internet, inclusi quelli che si connettono solo con uno smartphone.
Anche a rischio di apparire noiosi, desideriamo insistere su questo punto: l'unica vocazione dell'Open Source è quella di definire i mezzi migliori per diffondere un prodotto in una forma open, cioè aperta, in una prospettiva del tutto interna alla logica del mercato. L'aspetto dell'attitudine hacker che ci piace, cioè l'approccio curioso e lo scambio tra pari, è stato contaminato da una logica di lavoro e di sfruttamento del tempo finalizzata al profitto, e non al benessere personale e collettivo.
Il baccano creato dalle monete elettroniche distribuite (o cripto-monete), come Bitcoin, non fa altro che rafforzare questa affermazione. Invece di agire negli interstizi per ampliare gli spazi e i gradi di libertà e di autonomia, invece di costruire le nostre reti autogestite per soddisfare le nostre esigenze e i nostri desideri, ci adagiamo su una presunta moneta, sprechiamo energie e intelligenza in alcune molto classiche «piramidi di Ponzi», in cui i primi arrivati si arricchiscono a scapito di chi li segue.
Dal punto di vista della sovranità, siamo ancora nel quadro tracciato appositamente per la delega tecnologica della fiducia, un processo iniziato secoli fa (quanto meno con la modernità): non abbiamo alcuna fiducia negli Stati, nelle istituzioni stabilite, nelle grandi imprese e così via. Tanto meglio: Ars longa, vita brevis, è molto tardi e ci sono molte cose più interessanti da fare che perder tempo a riformare l'irriformabile. Sfortunatamente, invece di tessere con pazienza reti di fiducia per affinità, tendiamo a riporre fiducia nelle Macchine1, e sempre di più nelle Mega-macchine che si incaricano di gestire questa mancanza di fiducia con i loro algoritmi open: basta credere in loro. Serve solo di aver fede nei Dati, e rivelare tutto alle piattaforme sociali, confessare i nostri desideri più intimi e quelli dei nostri cari, per contribuire così alla costruzione di una rete unica (proprietà privata di alcune grandi imprese).
I Guru del Nuovo Mondo 2.0 ci hanno addestrato bene ai rituali di fiducia. Un Jobs2, vestito tutto di nero, brandendo un oggetto del desiderio bianco e puro (per esempio un Ipod), avrebbe potuto dire una volta, sull'altare-scena degli «Apple Keynotes»: «Prendete [tecnología proprietaria], e mangiate: questo è il mio corpo offerto a tutti voi». Però se proviamo a stare attenti alla qualità e alla provenienza di quello che mangiamo, perchè non stare attenti anche agli strumenti e alle pratiche di comunicazione?

L'analisi di Google come paladino dei nuovi intermediari digitali che Ippolita ha fatto nel saggio «Il lato oscuro di Google»3, si sviluppava nella stessa ottica. Lungi dall'essere soltanto un motore di ricerca, il gigante di Mountain View ha manifestato sin dalla sua nascita una chiara attitudine egemonica nel suo intento sempre più prossimo a realizzarsi di «organizzare tutto il sapere del mondo».
Vorremmo evidenziare come la logica open, aperta, combinata alla concezione di eccellenza universitaria californiana (di Stanford in particolare, culla dell'anarco-capitalismo), vedeva nel motto "Don’t be evil" 4, la scusa per lasciarsi corrompere al servizio del capitalismo dell'abbondanza, del turbo-capitalismo illusorio, della crescita illimitata (sesto punto della filosofia di Google: "è possibile guadagnar denaro senza vendere l'anima al diavolo"5). A loro piacerebbe farci credere che di più, più grande, più veloce (more, bigger, faster) sia sempre sinonimo di migliore; che essere sempre più connessi ci renda sempre più liberi; che dare a Google le nostre "intenzioni di ricerca" ci permetterà di non sentire più il peso della scelta, perché il pulsante "Mi sento fortunato" ci condurrà direttamente a una fonte alla quale saziare la nostra sete di conoscenza... Però queste promesse vengono sempre più disattese.

Abbiamo sempre più fame di informazione. La sete di novità è diventata inesauribile. La soddisfazione è tanto fugace che non riusciamo a smettere di cercare, ancora e ancora. A causa delle sue dimensioni, il re dei motori di ricerca è caduto nell'inutilità disfunzionale ed è diventato nocivo, oltre che una fonte di dipendenza. La terminologia di Ivan Illich qui risulta appropriata: a partire dal momento in cui la società industriale, perseguendo l'efficienza, istituisce un mezzo (strumento, meccanismo, organismo) per raggiungere un obiettivo, questo mezzo tende a crescere fino a oltrepassare un limite che lo rende disfunzionale e compromette l'obiettivo che originariamente perseguiva. Così come l'automobile arreca danno ai trasporti, l'istituzione scolastica all'educazione e la medicina (intesa come espressione della casta medica) alla salute, lo strumento industriale Google diventa controproducente ed nocivo per il benessere umano e sociale nel suo insieme.
È chiaro che quello che vale per Google vale anche per gli altri monopoli attualmente in attività: Amazon nella distribuzione, Facebook nella gestione delle relazioni interpersonali e così via. Inoltre ogni servizio 2.0 tende a sviluppare i propri motori e strumenti di ricerca interni dando l'impressione che il mondo, in tutta la sua complessità, sia a portata di click.
Con gli smartphone questa sovrapposizione si fa ancora più evidente: se usiamo Android, il sistema operativo made in Google, ci troviamo completamente immersi nella visione del mondo di Google. Tutto ciò che possiamo cercare e trovare viene assorbito da loro, di default, in maniera automatica.
In tutti i casi abbiamo a che fare con la stessa dinamica di trasparenza radicale. Il migliore apostolo di questa vera e propria ideologia è Facebook, con il suo mondo in cui tutto si pubblica, si condivide, si espone, ecc. Eppure niente è pubblico, è tutto privato. Abbiamo sempre meno controllo sui dati che produciamo con le nostre ricerche, tutti i «mi piace», i post, i tag, i tweet. Lungi dall'essere i padroni, né tanto meno i responsabili e gestori, siamo solo soggetti ai princìpi espressi dalla piattaforma alla quale affidiamo (letteralmente: ci affidiamo a lei, con fede) i nostri dati. Senza voler entrare in un dibattito giuridico, nel quale non ci troveremmo affatto a nostro agio 6, basterebbe ricordare che nessuno legge davvero le Condizioni Generali di Utilizzo (TOS, Terms Of Service) che accettiamo quando usiamo questi servizi. Come ci hanno spiegato amici giuristi, sono di fatto clausole vessatorie, che determinano asimmetrie strutturali. In questi mondi compartimentati proliferano i regolamenti sempre più prescrittivi i cui princìpi portano il politicamente corretto fino all'eccesso7.
La moltiplicazione delle regole che nessuno conosce viene accompagnata dalla moltiplicazione delle funzionalità (features) che pochi usano. Ad ogni modo, nessuno è davvero in grado di spiegare come queste funzionalità vengano adottate «in esclusiva, per tutto il mondo», o per ignoranza o pigrizia, o anche a causa di divieti derivati dalla sinergia perversa fra NDA (Non-Disclosures Agreement, clausole di non divulgazione dei segreti industriali, firmate normalmente dai lavoratori dell'IT), Brevetti, Trademarks, Copyrights.

Il tipo di sovranità che piace a Ippolita è l'autonomia, il fatto di «decidere le proprie regole», e in maniera condivisa. Se non si conoscono le regole, non è possibile alcuna autonomia. Abbiamo appena iniziato a comprendere come funzionano quelle che abbiamo descritto come "maliziose funzionalità" degli algoritmi, diventate note come Filter Bubble: la pratica della profilazione online. La bolla dei risultati personalizzati ci porta in una zona di eteronomia permanente che si espande costantemente, nella quale le scelte sono delegate agli Algoritmi Sovrani. Ovviamente non si tratta di una costrizione, siamo totalmente liberi nel nutrire la sovranità algoritmica con tutti i nostri movimenti online, e molte volte lo facciamo con entusiasmo. Sovrano è colui che decide dello stato di eccezione: per questo abbiamo sostenuto che ci troviamo immersi in uno stato di eccezione di massa, di matrice algoritmica privata. Questa pratica rappresenta la promessa di libertà automatizzata: pubblicità contestuale e studio dei sentimenti degli utenti, affinchè ognuno riceva un annuncio personalizzato, di prodotti su misura, per acquistarli con un clic e disfarsene, il più rapidamente possibile, per poter comprare un'altra cosa. Allora noi, gli utenti, siamo consumatori per coloro che devono conoscerci perfettamente per poter prevedere e soddisfare i nostri «vizi» con oggetti subito obsoleti. Ricordiamo che la profilazione è un prodotto della criminologia. Seguire la sua logica, anche se per scopi commerciali, è relazionarsi con l'altro come con un criminale.

In questo ambito Google è sempre stato pioniere e campione indiscusso. Il suo motore di ricerca si basa sul Page Ranking e poi anche Google Panda. All'inizio, ogni link entrante in un sito veniva considerato come l'espressione di un voto di preferenza; i risultati si basavano su quello che aveva «votato» la «maggioranza». Molto rapidamente, gli algoritmi si sono dotati di filtri contestuali 8. Attraverso i risultati dell'algoritmo globale di top rank e a partire dai dati che provengono dalla profilazione dell'utente (ricerche precedenti, cronologia di navigazione, ecc.), è emersa un'autentica ideologia della trasparenza9. E questa può materializzarsi solo spogliando letteralmente gli individui e consegnando la loro interiorità (o per lo meno, quello che essi esprimono attraverso la macchina) a un sistema digitale interconnesso. Questi contenuti si accumulano con processi di tracking10, vengono suddivisi in porzioni sempre più dettagliate per consegnare a ogni internauta un servizio-prodotto a misura, che risponde in tempo reale alle preferenze che ha espresso.

La questione della profilazione è diventata notizia dibattuta a livello mondiale a partire dagli «scandali» di PRISM e simili (ma qualcuno ricorda Echelon11, tuttora in attività?). La stragrande maggioranza degli utenti dei servizi 2.0, dei quali i motori di ricerca fanno parte, accettano i loro parametri di default. Quando ci sono delle modifiche12, quasi tutti gli utenti adottano la nuova configurazione. Lo chiamiamo il potere «di default»: la vita online di milioni di utenti può essere trasformata totalmente, semplicemente facendo alcune modifiche. Si possono modificare le loro abitudini, i loro comportamenti più minuti, perfezionare un addestramento che scegliamo un click dopo l'altro.

Questo è il lato oscuro dei sistemi di profilazione! È possibile che un giorno, nell'inserire il tuo nome e la tua password, trovi cambiata l'organizzazione dello spazio del tuo conto personale, un poco come se entrando a casa fosse cambiato l'arredamento e i mobili non fossero più al loro posto. Dobbiamo sempre tenere a mente questo quando parliamo di tecnologia per tutti, vale a dire per la massa: anche se nessuno vuole far parte di essa, quando usiamo questi strumenti commerciali e gratuiti siamo la massa. E ci sottomettiamo al potere "di default": questo implica che quando cambiamo il default, viene stabilita la nostra "diversità", perché la modifica che abbiamo scelto è registrata nel nostro profilo13.
La Pars Destruens è ovviamente la più facile da esporre. Non è troppo difficile articolare critiche radicali. D'altro canto, il mero fatto di sentire la necessità di trovare alternative ai motori di ricerca ora disponibili non garantisce affatto un risultato soddisfacente. La navigazione il più possibile anonimizzata, che insegniamo nei nostri seminari per l'autodifesa digitale, è un buon indizio per poter giudicare la qualità delle nostre ricerche e la nostra rapporto con la rete in generale.
Potremmo riempire pagine e pagine spiegando come usare questa o quella estensione di Firefox14 che aiuti a evitare il tracciamento, blocchi le pubblicità, o impedisca ai minori di entrare in siti «pericolosi» (così ci viene chiesto spesso da adulti-padri-educatori spesso ingannati dalla retorica reazionaria della «rete pericolosa»). Si possono rimuovere tutti i cookies e gli LSO (Localised Shared Object), ci si può connettere in modo anonimo tramite VPN (Virtual Private Networks), criptare ogni comunicazione, usare TOR e altri strumenti anche più potenti, in modo che Google & Co non sappiano niente di noi. Sì, però... se provo a proteggermi di più, allora mi differenzio di più dalla massa ed è più facile riconoscermi. Se il mio browser è pieno di estensioni per eludere la profilazione, rendermi anonimo e criptare, e se uso soltanto un sistema operativo strettamente GNU/Linux per connettermi alla rete (Che gusto? Ubuntu, Debian, Arch, Gentoo, from scratch, ecc. Ce ne sarà sempre uno più « puro »!), paradossalmente mi riconoscono più facilmente di un qualunque internauta che usa sistemi meno complessi e più diffusi15.
La crittografia, ottimo strumento per esercitare l'autonomia tecnologica, solleva anche tante critiche, soprattutto perché si basa sullo stesso principio di crescita illimitata (sempre più potente, sempre più veloce) del turbo-capitalismo liberista, e dell'attuale variante libertariana della Silicon Valley. Con l'aumentare della potenza di calcolo e della velocità delle reti, aumenta l'efficienza dei sistemi di crittazione più recenti; allo stesso tempo i vecchi catenacci diventano obsoleti con rapidità.
Questo meccanismo di crescita-obsolescenza fa parte di una logica militare di attacco e difesa, di spionaggio e controspionaggio. Non dimentichiamo che si tratta in generale di sistemi pensati per scopi militari, nati con lo scopo di rendere inoffensiva l'intercettazione delle comunicazioni da parte del nemico, incapace di decifrare i messaggi. La crittografia è una buona pratica, sopratutto per gli appassionati di informatica a cui piacciono i rompicapo logici, però l'approccio non è soddisfacente.
La Pars Construens dovrebbe iniziare dall'umile accettazione che la tecnologia non è né buona, né cattiva, né neutra, in alcun modo. L'uso delle tecnologie dipende dalle persone, ma anche da come quella tecnologia è stata architettata. Per cui una particolare tecnologia, anche la migliore del mondo (però secondo quale criterio?) non garantisce nulla di per sé. L'approccio metodologico che ci piace proporre è di valutare non il «cosa?» (che alternativa ai motori di ricerca?) bensì il «come?»: la maniera con la quale gli strumenti tecnologici si creano e si modificano attraverso il loro uso, i metodi con i quali gli individui e i gruppi si adattano e cambiano i loro modi particolari di agire.

Seconda umile accettazione: le questioni sociali sono prima di tutto questioni umane, di relazioni tra gli esseri umani, ognuno nel suo ambito. Malgrado l'alta risoluzione degli schermi touch, malgrado la velocità quasi istantanea di migliaia di milioni di risultati dei motori di ricerca quasi onnipotenti, la civiltà 2.0 è molto simile a quelle che la hanno preceduta, perchè gli esseri umani continuano a cercare l'attenzione dei loro simili. Hanno ancora bisogno di mangiare, dormire, mantenere relazioni di amicizia, dare un senso al mondo a cui appartengono. Continuano a innamorarsi e ad avere delusioni, sognano e nutrono speranze, si sbagliano, si derubano, si fanno del male, si uccidono.
In parole povere gli esseri umani devono avere coscienza della finitezza della loro esistenza, nel tempo (l'impossibilità di comprendere la morte) e nello spazio (lo scandalo dall'esistenza degli altri, e di un mondo esteriore), anche nell'era dei motori di ricerca e delle reti sociali digitali.

Come queste considerazioni possono aiutarci a cercare meglio, vale a dire, cercare in modo «diverso»?
L'egemonia dei motori di ricerca giganti si basa su una accumulazione senza limite di dati: è evidente che è una questione di dimensioni. Size matters! Le dimensioni contano, e parecchio! Un'informazione e tecnologia di ricerca semplice da usare che promuovano la realizzazione della libertà individuale in una società dotata di strumenti efficienti sono ancora possibili. Di fatto, la conclusione logica di una critica dell'informatica del dominio consiste nel sostenere all'opposto che small is beautiful, "piccolo è bello".
Le dimensioni hanno un'importanza considerevole. Superata una certa scala, è necessaria una gerarchia per gestire le relazioni tra gli esseri umani e tra gli esseri in generale, viventi e non. Fra macchine e protocolli, cavi, membrane, processi di accumulazione e ricerca. Ma chi controllerà gli intermediari? Chi controllerà i controllori? Se ci affidiamo a strumenti di intermediazione troppo grandi per le nostre ricerche, dobbiamo accettare che si instauri una gerarchia di dominio. Tutto è relativo, non nel senso che vale tutto, che ogni cosa è equipollente, ma nel senso che tutto è «in relazione con».

I saperi ammassati in quelli che chiamiamo «Big data»16 sono una chimera perché i saperi utili per gli esseri umani non sono all'esterno dei loro corpi, individuali e collettivi, e non sono intercambiabili fra loro; se è vero che possono essere oggettivati, trasmessi, appresi, tradotti e condivisi, i saperi sono innanzi tutto un processo di immaginazione individuale, suscettibile di socializzarsi in immaginari collettivi. Al contrario della memoria totalmente inerte degli strumenti digitali, l'identificazione è un processo nel quale perdiamo e riacquistiamo continuamente consapevolezza, nel quale perdiamo memoria per poi ricostruirla, come ci ricostruiamo nei nostri processi vitali. Se invece di avere un numero limitato di fonti tra le quali selezionare i nostri percorsi, creiamo la nostra storia che ricontrolliamo e condividiamo, avendo attinto da una fonte illimitata di dati automaticamente organizzati dai sistemi di profilazione, la relatività cede il passo all'omologazione. Così si nutrono le Megamacchine.
Queste ultime creano relazioni di causa-effetto di tipo capitalista o dispotico. Generano dipendenza, sfuttamento, impotenza degli esseri umani ridotti a essere solo consumatori sottomessi. Peggio: consumatori-produttori che desiderano asservirsi ai loro stessi desideri illimitati.

Sia detto ancora una volta per gli entusiasti sostenitori dei commons: è una questione di scala, non di proprietà, perché

la proprietà collettiva dei mezzi di produzione a questo livello non muta nulla, e si limita ad alimentare un’organizzazione dispotica stalinista. Perciò Illich vi oppone il diritto di ciascuno a utilizzare i mezzi di produzione in una «società conviviale», ossia desiderante e non-edipica. Ciò significa: l’utilizzazione più estesa delle macchine da parte del maggior numero di persone, la moltiplicazione delle piccole macchine e l’adattamento delle grandi macchine alle piccole unità, la vendita esclusiva di elementi macchinici che devono essere assemblati dagli stessi utilizzatori-produttori, la distruzione della specializzazione del sapere e del monopolio professionale.17.

La domanda di sempre è: Come fare? Che intenzioni abbiamo rispetto alle tecnologie di ricerca? Vogliamo trovare ciò che cerchiamo subito, o invece ci piacerebbe percorrere un cammino? Magari desideriamo vagare con gli amici, o da soli; è possibile che abbiamo voglia di avventurarci nelle profondità sconosciute e non facilmente condivisibili con un click, un tag, un post.

Potremmo desiderare motori di ricerca «situati» che assumono una prospettiva per nulla «oggettiva» e, al contrario, esplicitamente «soggettiva», spiegando il perché e il come. La moltiplicazione dei motori di ricerca di piccola taglia ed esplicitamente dedicati, ecco una possibilità che si approfondisce poco! Un possibile criterio di giudizio potrebbe essere la loro capacità di rivolgersi a un gruppo particolare con esigenze particolari. Questa aspirazione minoritaria non implicherebbe logicamente la volontà di rifiutare in modo quasi istantaneo le ricerche di tutto il mondo, e cioè di una massa soggetta alla profilazione, ma di approfondire gli aspetti negativi di una conoscenza sempre illimitata. Questo segnerebbe la fine delle aspirazioni totalitarie, questo famoso lato oscuro dell'Illuminismo e di tutti i progetti di conoscenza globale.
Ricorrere alla valutazione dei componenti della nostra «rete sociale», e non solo online, rappresenta un'altra possibilità incredibilmente efficace, se l'obbiettivo è quello di creare un riferimento affidabile su un tema particolare. Si tratterebbe allora di scegliere con attenzione a chi «dare fiducia».
L'adozione di uno stile sobrio può essere l'alternativa più potente per contrastare la proliferazione di espedienti tecnologici che non abbiamo mai chiesto, e ai quali, però, abbiamo difficoltà a sottrarci. Di fatto anche l'imposizione dell'obsolescenza programmata rientra nel campo di ricerca, iniziando dall'equivalenza «di più è meglio», frutto di un'applicazione cieca dell'ideologia del progresso a tutti i costi. Possedere una gran quantità di oggetti, nel mondo 2.0, significa anche avere accesso a un numero di risultati in crescita continua ed esponenziale, sempre più ritagliati in funzione delle nostre preferenze, ostentate più o meno esplicitamente. Seguendo la stessa logica, si dovrebbe tener in conto la durata di un risultato: una montagna di risultati validi per pochi giorni, ore, o magari minuti, dovrebbero avere meno interesse di risultati più resistenti al passare del tempo.

Sfuggire all'economismo religioso del consumo obbligatorio significherebbe, allora, avviare un percorso di decrescita, nella ricerca online, come in ogni altro ambito tecnologico. Questi processi di auto-limitazione e di scelta attenta non potranno essere in nessun caso «fortuiti», come esplicita il bottone "mi sento fortunato" della filosofia oracolare di Google, nel senso di senza sforzi o quasi automatici. Nessuna dipendenza, e ancor meno la dipendenza da una tecnologia «gratuita» dalla risposta immediata, può essere spezzata senza conseguenze. In altre parole, se desideriamo un motore «libero» che sia al 99,99% altrettanto veloce, potente e disponibile di Google, allora l'unica cosa che potrà accadere sarà di creare un altro Moloch come quello di Mountain View.
A coloro che forse potrebbero percepire come un sacrificio questa tensione che potremmo definire ecologista, risponderemo con il tono dell'allegoria tornando al cibo: perché mangiare robaccia industriale al posto di scegliere bene gli ingredienti dei tuoi pasti? Perché abbuffarsi di risultati quando potremmo sviluppare i nostri gusti personali? La vita è troppo corta per bere tutto quel vino cattivo!

Ci sono molti esperimenti autogestiti già attivi, basta aprire bene gli occhi, annusare l'aria attorno, tendere le orecchie, toccare, sporcarsi le mani e provare ad affinare il proprio gusto per le cose buone: alla fine basta mettersi alla ricerca. Aspettarsi che gli altri lo facciano al posto nostro è un'idea bislacca, come credere che i grandi motori di ricerca ci forniscano la risposta esatta immediatamente, gratuitamente e senza sforzo. Ma non esiste nessun oracolo onnisciente, solo persone nelle quali decidiamo di riporre la nostra fiducia.


Ippolita

Gruppo di ricerca indisciplinare attivo dal 2004. Conduce una riflessione ad ampio raggio sulle ‘tecnologie del dominio’ e i loro effetti sociali. Pratica scritture conviviali in testi a circolazione trasversale, dal sottobosco delle comunità hacker alle aule universitarie. Tra i saggi pubblicati: Anime Elettriche; La Rete è libera e democratica. FALSO!, Nell’acquario di Facebook, Luci e ombre di Google. Open non è free. Comunità digitali tra etica hacker e mercato globale.

Ippolita tiene formazioni teorico-pratiche di autodifesa digitale, pedagogia hacker e validazione delle fonti per accademici, giornalisti, gruppi di affinità, persone curiose.

info [at] ippolita [dot] net
http://ippolita.net


NOTE

1. Si veda Giles Slade, The Big Disconnect: The Story of Technology and Loneliness, Prometheus Books, NY, 2012, in particolare il terzo capitolo, «Trusting Machines».
2. Per esempio, https://upload.wikimedia.org/wikipedia/commons/b/b9/Steve_Jobs_Headshot_2010-CROP.jpg
3. Ippolita, El lado oscuro de Google: Historia y futuro de la industria de los metadatos, virus editorial ed. or. it. Luci e Ombre di Google, Feltrinelli, Milano, 2007. Free copyleft download http://ippolita.net
4. Non essere malvagio
5. Le dieci cose che sappiamo essere certe, http://www.google.com/intl/es/about/company/philosophy/
6. Sopratutto perché il diritto tramite leggi e giudizi sanziona chi lo infrange anche di più se non è in grado di pagare buoni avvocati. Si veda Carlo Milani,« Topologies du devenir libertaire. II – Droits ? », dans Philosophie de l’anarchie. Théories libertaires, pratiques quotidiennes et ontologie, ACL, Lyon, 2012, pp. 381-384.
7. Se Google fa filosofia, Facebook annuncia princìpi: https://www.facebook.com/principles.php
8. Si veda Ippolita, El lado oscuro de Google, cit., « V. Además, otras funcionalidades maliciosas »
9. I lavori di danah boyd forniscono un punto di vista molto chiaro in merito, il suo sito http://www.zephoria.org/ merita una visita. Per una prospettiva più filosofica si veda Byung-Chul Han, Transparenzgesellschaft, Matthes & Seitz, Berlin, 2012.
10. Il sito http://donttrack.us/ ci mostra molto chiaramente, con una breve presentazione, il sistema di tracciamento delle ricerche. Ci da anche l'opportunità di fare una prima allusione alle “alternative”, por esempio DuckDuckGo. Un motore di ricerca che dice di non tracciare (non fare tracking). Lo scetticismo metodologico al quale aspiriamo ci permette di osservare che è possibile: serve solo aver fiducia in DuckDuckGo...
11. E comunque, sappiamo sin dalla publicazione del 1999 del rapporto europeo di Duncan Campbell 'Interception Capabilities' http://www.cyber-rights.org/interception/stoa/interception_capabilities_2000.htm che lo spionaggio digitale si fa su scala globale.
12. Come successe varie volte nel 2012 e nel 2013, quando Google ridefinì i suoi parametri di confidenzialità e di scambio dei dati tra i suoi diversi servizi.
13. Si può provarlo facilmente: chiedi ai tuoi amici e colleghi di lavoro se hanno cambiato i parametri di default di Google. Normalmente (a partire dal 2014) il filtro Safe Search che Google usa per scartare i risultati di ricerca «illeciti» è basato sulla «media», vale a dire che filtra i contenuti di carattere sessuale esplicito nei risultati di ricerca. E' sempre più difficile individuare questo tipo di parametri. La ragione è stata esposta da una fonte chiaramente corporate: la strategia di business ottimale per i giganti della profilazione online è offrire sistemi di controllo della confidenzialità difficili da usare. Si veda «Appendix: a game theoretic analysis of Facebook privacy settings», in Robert H. Sloan, Richard Warner, Unauthorized access. The Crisis in Online Privacy and Security, CRC Press, 2014, pp. 344-349.
14. Si veda per esempio il manuale Security in a box: https://securityinabox.org/fr/firefox_principale
15. Un panorama abbozzato da Ippolita, Nell'acquario di Facebook, Ledizioni, 2012, Parte terza, le libertà della Rete, «Reazioni e antropotecniche di sopravvivenza», pp. 177-186 http://www.ippolita.net/it/libro/acquario/reazioni-e-antropotecniche-di-sopravvivenza. Si vedano anche il progetto Panopticlick della EFF: https://panopti-click.eff.org/ e Ixquick: https://www.ixquick.com/eng/
16. https://es.wikipedia.org/wiki/Big_data
17. G. Deleuze, F. Guattari, Bilancio-programma per macchine desideranti, in Macchine desideranti, Ombre corte, Roma 2004, p. 114. Ed. or. Gilles Deleuze, Felix Guattari, «Appendice, Bilan-programme pour machines désirantes», L’Anti-Œdipe, Éditions de Minuit, Paris, 1975, p. 479.

results matching ""

    No results matching ""