Il codice è politico, gli algoritmi sono un’arma di distruzione matematica 1

Benjamin Cadon

Ne sentiamo spesso parlare, ma non li vediamo mai. Cosa sono questi algoritmi? Creature invisibili e sfuggenti che si insinuano nei nostri pensieri e abitano le nostre tasche. Quali sono le loro intenzioni?

Formalmente parlando, un algoritmo non è molto di piú che una serie inoffensiva di operazioni che vengono nutrite con dei dati per produrre un risultato. Tuttavia, automatizzano la risoluzione di una serie di problemi complessi 2 e in questo modo alcuni di essi diventano Intelligenze Artificiali, grazie ad aziende che li riempiono di dati, gentilmente e gratuitamente forniti da noi.

Un bestiario 3 di algoritmi

Niente è come sapere cosa mangiano per capirli meglio e capire il loro ruolo nella società degli umani computerizzati. Non sono nati da una scintilla elettrica nel fondo di un mare solforoso di dati. I loro progenitori sono gli esseri umani, che scrivono le linee di codice e producono un programma che porta con sé un progetto politico e sociale dettato da uno sponsor pubblico o privato.

Gli algoritmi non sono mai “neutrali” o imparziali. Si focalizzano sul portare avanti la missione loro assegnata, solitamente da maschi occidentali delle classi piú alte, cullati dal capitalismo.

È anche importante menzionare che un algoritmo stupido nutrito con molti dati di buona qualitá avrá piú successo dell’intelligenza artificiale piú famosa, anche se quest’ultima ha artigli piú affilati. Come non citare questi orchi Americani, i GAFAM (Google, Apple, Facebook, Amazon e Microsoft) o i BATX, i loro alter-ego dall’altro lato del pacifico (i giganti cinesi: Baiu, Alibaba, Tencent e Xiaomi). Il loro metabolismo si basa sul raccoglimento, con il nostro aiuto, della massima quantitá di dati sui nostri piú piccoli atti e gesti. “Aumentanto” il nostro quotidiano con un gran numero di app per smartphone e oggetti connessi che dovrebbero rendere le nostre vite piú facili.

Algoritmi che mangiano i nostri dati personali

Gli algoritmi di questo tipo sono polimorfi. Sono cresciuti osservandoci da lontano, spiando le nostre attivitá online, e i posti che frequentiamo di piú. Si sono poi elevati al di sopra delle nostre interazioni per meglio deteminare chi possiede l’Autoritá, ignorando la logica del voto popolare e le classificazioni basate sul merito.

Poi, in un terzo momento, sono entrati nella nostra intimitá digitale, analizzando la qualitá e la frequenza dei nostri scambi per valutare la nostra reputazione e tracciare le nostre affinitá.

Infine, si nascondono dalla vista per meglio predire il piú piccolo dei nostri desideri, per riuscire a plasmarli.

Da un lato Sopra Dentro Sotto
Esempio Misurazione dell’audience, Google Analytics, tab pubblicitarie Google PageRank, Digg, Wikipedia Numero di amici su Facebook, Retweets su Twitter, note e opinioni Raccomandazioni su Amazon, pubblicitá basata sul comportamento
Data Visite Relazioni Likes Tracking
Popolazione Campioni rappresentativi Censimento votanti, comunitá Social networks, affinitá, dichiarativo Comportamenti individuali impliciti
Tipo di calcolo Voto Classificazione attraverso il merito Benchmark Machine Learning
Principi Popolaritá Autoritá Reputazione Predizione

Secondo Domenique Cardon in “À quoi rêvent les algorithmes”. 4

Queste diverse generazioni di algoritmi vivono ancora insieme, fianco a fianco, e sono facilmente riconoscibili in quanto ci forniscono molto efficientemente svariati servizi. Cercano di farci pagare i nostri “dividendi digitali” 5 perché rendono la nostra esistenza discreta, tagliandola nelle fette piú sottili possibile per estrarne tutte le informazioni monetizzabili 6.

Ogni Stato alleva un orco terrificante che lavora nella sorveglianza. Gli interessi di quest’orco si mischiano frequentemente con quelli dei suoi amici orchi commerciali, quando senza vergogna assalta i loro negozi, con la loro approvazione 7. Il suo insaziabile appetito lo porta a osservare i posti con maggior traffico di dati. Si assume che sia in grado di trovare un terrorista in un pagliaio, sebbene soffra spesso di miopia e obesitá, rivelandosi piú efficiente nel rubare segreti politici e industriali che nell’acciuffare i ragazzi cattivi prima che agiscano.

Algoritmi che mangiano dati pubblici

I differenti strati amministrativi delle forze dell’ordine coltivano anche giardini fioriti di dati dai molti gusti: biometrici, fiscali, ambientali, urbani, professionali o addirittura legati alla salute.

Apparentemente neutrali e obiettivi, le creature pubbliche algoritmiche sarebbero la soluzioni alle disuguaglianze di trattamento di fronte alle decisioni arbitrarie di alcuni funzionari civici. Tuttavia, possono comunque trasformare intere famiglie in insetti Kafkiani che pendono sulla macchina da scrivere nel film Brazil8. Infatti, sono loro a determinare in quale scuola la nostra prole dovrebbe andare, se puoi beneficiare dei sussidi sociali, per quali lavori puoi candidarti e se il tuo ciclo mestruale è pronto per procreare.

I commercianti di dati personali offrono gentilmente aiuto agli enti pubblici nel digitalizzare e clonare le piante piú belle del giardino pubblico, siano fiori culturali o erbe medicinali. Come i commercianti, le forze dell’ordine passano da osservazione a predizione, e non solo per ottimizzare la raccolta della spazzatura, ma anche per segnalare alle forze di polizia dove c’è maggiore possibilitá che un crimine venga commesso, grazie ai loro algo-cani, PredPol CompStat o HunchLab 9.

Algoritmi che mangiano soldi

Thomas Peterffy è un finanziere che ha dedicato la sua vita a rimpiazzare le operazioni manuali dei brokers con macchine automatiche. Nel 1987, vedendo che il numero di ordini piazzati da Peterffy era sorprendentemente alto, i responsabili dei mercati mandarono un ispettore. Questi, aspettandosi di trovare una stanza piena di uomini bianchi urlanti e sudati, trovó niente piú che un computer IBM connesso con un terminale Nasdaq ufficiale 10. Fu cosí che nel 1987 gli algoritmi vennero lanciati nei mercati finanziari.

In questi giorni, l’algo-trading è ovunque e il sereno battito algoritmico nelle reti di informazione ha rimpiazzato i trader isterici. Tuttavia, anche queste creature finanziarie digitali hanno consentito di essere prese da algo-traders ad alta frequenza, che si muovono alla velocitá della luce. Costruiscono strade per arrivare alla vendita prima di tutti gli altri 11, accumulando profitti ad ogni operazione. Al momento trovano rifugio in molte “zone d’ombra” che le banche sono riuscite a creare grazie al paradossale rilassamento delle regolamentazioni. Nel comfort lucrativo a volte visto nei “Flash Crashes” 12, la diversitá di specie algoritmiche (Blast, Stealth, Sniffer, Iceberg, Shark, Sumo,... 13) aumenta insieme alla complessitá delle loro strategie, rendendo i “mercati” sempre piú illegibili e incontrollabili, nonostante permanga l’assunto per cui sono governati da una mano invisibile.

Evidentemente questo ha un impatto su quella che chiamiamo “economia reale”, cioé le vite delle persone. Per esempio, quando i pirati Siriani hanno compromesso l’account Twitter della Casa Bianca postando un tweet allarmistico, questo è stato immediatamente letto dai robot algo-trader, causando una caduta di 136 miliardi di dollari nello stock market in soli 3 minuti 14.

Una nuova creatura algoritmica è emersa nella giungla della finanza, nella forma di un verme che si duplica in tutti i computer riceventi e diventa piú grasso man mano che viene usato, divorando, nel suo passaggio, una quantitá impressionante di elettricitá 15. Si chiama “blockchain” 16 e si è fatta conoscere attraverso i “Bitcoin”, la prima cripto-moneta dematerializzata senza passare in un corpo centrale di banche attaccato a uno Stato. Oggi bitcoin vale 28 miliardi di dollari 17.

Fortunatamente, iniziative come Ethereum 18 hanno concesso ai vermi di mutare in modo che non solo registrano le transazioni, ma guidano anche database e applicazioni “intelligenti” (“smart contracts”). Questo incoraggia progetti come DAO 19 (Decentralized Autonomous Organisation – Organizzazione Autonoma Decentralizzata), un fondo di investimento centralizzato senza direttori, dove ognuna partecipa ai processi decisionali in quanto funzione del capitale che ha. Questo fondo si è trovato rapidamente circondato da diversi investitori, qualcosa come 150 miliardi di dollari.

Tuttavia, un joker malizioso è riuscito ad andarsene con un terzo del totale, sfruttando una falla (che chiamano feature) nel codice, irreparabilmente marcata nel corpo di un DAO ospitato da Ethereum. Sará necessario tagliare gli anelli del verme malato? O ucciderlo per crearne uno nuovo? L’ultima è la soluzione che è stata adottata per consentire agli investitori di recuperare i loro soldi, dopo molte discussioni “politiche”, nonostante il fatto che lavorano dal punto di vista del principio libertariano per cui “il codice fa la legge”. Questo suscita importanti domande legali, in particolare per la definizione delle responsabilitá in un network distribuito 20 o nell’immaginare forme di governance per questo “codice” che, in alcuni domini, è rimpiazzato dalla legge negli Stati Uniti.

Ci sono altre creature algoritmiche che sono fan del denaro e che cercano di rimpiazzare il lavoro degli esseri umani, massimizzando la produttivitá e i costi e quindi contribuendo a una maggior concentrazione del capitale. Le compagnie principali capiscono questo molto bene, dunque Foxcom annuncia il rimpiazzo di quasi tutti i suoi lavoratori con un milione di robots 21, oppure lo studio legale BakerHostetler contratta ROSS, un’intelligenza artificiale, per studiare piú rapidamente carte legali complesse 22. La “morte del lavoro” è stata dichiarata 23, tuttavia sembra che il regime sociale ed economico sará a malapena in grado di sostenerla nel futuro (prossimo).

Algoritmi che mangiano cervelli umani

Le ultime famiglie da identificare nel nostro bestiario di algoritmi sono composte da quelle che mirano a riempire il cervello umano e da quelle che, al contrario, vogliono succhiarlo per sostituirlo meglio. L’Intelligenza Artificiale va nutrita di dati per poter rimpiazzare gli esseri umani in un ampio spettro di processi. Questo è quello che fa Google con il suo progetto reCAPTCHA 24, quelle immagini illegibili che ci viene richiesto di decifrare e trascrivere per dimostrare al server di non essere robot, ma umani, passando il test di Turing al contrario 25. La grande innovazione dei reCAPTCHA è che il frutto delle tue risposte va direttamente a nutrire le intelligenze artificiali e le evoluzioni dei programmi di Google: decifrare testi per migliorare la digitalizzazione di libri, identificare numeri delle case per raffinare mappe, e ora identificare immagini contenenti animali o segnali stradali, per rendere gli auto-piloti delle macchine meno miopi. I risultati accumulati stanno diventando sempre piú rilevanti, e rappresentano milioni di ore di lavoro umano 26.

Per quanto riguarda l’algoritmo che contribuisce a nutrire i cervelli umani questo sta diventando, come il suo collega che raccoglie dati personali, sempre più sofisticato e sottile. Nutriamo il suo cervello giornalmente con l’aiuto di un motore di ricerca che ci mostra dove trovare il luogo giusto, le informazioni piú precise, i video piú emblematici. All’inizio del 2017, nel 92,8% dei casi quel motore di ricerca è stato Google. Questo lo rende un dittatore culturale in una posizione egemonica totalmente nuova (ma cosa stanno facendo le autorità garanti della concorrenza?!). Non apparire nella prima pagina dei risultati equivale a non esistere. Eppure l’algoritmo di ricerca di Google è un segreto industriale gelosamente custodito che si puó contrastare solo con il “diritto all’oblio” 27.

Dall’esperienza surrealista dei ricercatori nel laboratorio che è Facebook 28, che nel 2010 ha condotto esperimenti su 61 milioni di utilizzatori durante le elezioni del congresso USA, sappiamo che messaggi politici manipolatori hanno un’influenza diretta sulle persone che sono rese inconsapevoli cavie da laboratorio, cosí come sui loro amici, e amici di amici.

Da allora, le false notizie hanno abbondantemente inseguito quelle buone sui social network, aumentando il flusso di post-verità. Qual è la linea politica degli algoritmi che governano il contenuto sui nostri “muri”? Incorporare troppo velocemente soluzioni a problemi importanti su queste piattaforme, come incitamento all’odio o molestie, metterá gli algoritmi e i loro controllori nella posizione ufficiale di controllare la morale di gran parte della societá.

Si potrebbe pensare che, per raggiungere piú velocemente il punto della singolaritá tecnologica 29, le nostre creature digitali stiano rannicchiate nelle ombre a complottare per renderci servili.

La governance algoritmica 30 sarebbe un nuovo modo di governare il comportamento, frutto di cambiamenti nella nostra relazione con l’altro, con il gruppo, con il mondo, con il senso delle cose che abbiamo attorno. Grazie o malgrado la svolta digitale, possono esserci fondamentali ripercussioni nel modo in cui le norme sono create -e con esse, l’obbedienza 31.

Quando gli algoritmi mangiano dai cervelli umani, questo puó anche portare alla morte clinica dell’essere umano in questione. Questo si puó dire per gli algoritmi che predefiniscono le vittime di droni killer, anche se sono pilotati da uomini e donne. Come fanno gli algoritmi delle macchine a guida autonoma a decidere il male minore o il numero di morti, se coinvolte in un incidente che non si puó evitare? La cyber-guerra vola bassa tra le nostre reti occupate, ogni paese affilando i suoi algoritmi per essere sempre piú insidioso e letale del nemico.

Come sappiamo se un algoritmo è buono o cattivo?

Un algoritmo cattivo è uno che traforma le telecamere di sorveglianza in un esercito di botnets assetate di sangue che arrivano a frotte a strangolare i server? Un algoritmo buono è uno che mi ricorda dei compleanni delle mie amiche? Stabilire un criterio non è facile, perché dobbiamo considerare l’interdipendenza tra gli algoritmi, i dati che usano e le intenzioni dietro di essi. Tuttavia, possiamo sperare che un algoritmo buono rispetti le seguenti condizioni:

  • dovrebbe essere “revisionabile” e quindi essere composto di codice aperto e documentato;

  • dovrebbe essere “aperto” e quindi nutrirsi solo di set di “open data”, che sono completi e “raccoglibili” da altri, cioé l’accesso dovrebbe essere discriminato e bisognerebbe pagare per certi usi commerciali;

  • dovrebbe essere “leale e giusto”, senza la capacitá di creare discriminazione o ingiustizia (sociale 32, di genere 33 etc.) né di danneggiare esseri umani 34;

  • dovrebbe essere “trasparente” 35 e capace di condurre revisioni sistematiche delle sue stesse operazioni ed evoluzioni (se ha capacitá di apprendimento o predittive) ed essere capace di porsi sotto il controllo dei cittadini;

  • dovrebbe essere “modificabile” e pronto a rispondere a lamentele che potrebbero richiedere cambiamenti alla funzione dell’algoritmo.

In questa ricerca di moralitá algoritmica bisogna anche menzionare le “porte”, le API (Application Public Interfaces), che permettono a queste creature digitali di cacciare dati da altri server e servizi, o di piazzare contenitori, o lasciare esche… queste API sono considerate brevetti in attesa per l’industria, una nuova forma di brevettare software anti-open source. Queste porte possono essere aperte o chiuse secondo la discrezione strategica del proprietario, o si possono implementare dei pedaggi quando il traffico algoritmico diventa abbondante, se questa monetizzazione risultasse opportuna.

Nella sfera pubblica e nella societá civile, possiamo immaginare che i criteri sopra menzionati di apertura, trasparenza, responsabilitá e modificabilitá possano un giorno essere rispettati. Questo è piú difficile da immaginare nella sfera privata del lucro, dove i dati e gli algoritmi che li consumano sono considerati “il petrolio del futuro” 36.

Dunque un gruppo di ricercatori degli Stati Uniti e alcuni “giganti” del mondo digitale hanno provato a formulare i “principi per gli algoritmi responsabili” 37 e si sono incontrati per discutere dell’etica dell’intelligenza artificiale 38. Questo è un buon modo per dire a politici e cittadini preoccupati che il settore privato puó “anticipare e amministrare” questa complessitá con risultati positivi, quindi non c’è bisogno di creare leggi.

Tuttavia, il punto non è chiedere trasparenza per il codice degli algoritmi, ma piuttosto per i loro scopi. Dato che queste non sono limitati alle comunicazioni commerciali, è necessario sviluppare la legge come un mezzo di coercizione 39. Possiamo cercare conforto nel dibattito partecipato che ha avuto luogo in Francia sulla “Legge della repubblica digitale” che ha portato all’obbligo di trasparenza per gli algoritmi usati dalle forze dell’ordine 40, o anche l’iniziativa “TransAlgo di INRIA” 41, che aspira a stabilire la responsabilitá e la trasparenza dei robot dell’informazione.

Futuropie per gli algoritmi sovrani

E quindi, come passiamo da una bestia algoritmica che dobbiamo sopportare a un animaletto che nutriamo? Lasciateci compostare alcuni lombrichi per disegnare le ramificazioni biotecnologiche che guidano l’umanitá e la tecnologia a vivere in un’armonia di silicone. Come possiamo riprendere il nostro destino nelle nostre mani, riprendere la nostra autonomia mentale, la nostra sovranitá tecnologica che oggi è guidata da algoritmi in uno spazio di controllo sociale?

Il codice è un obiettivo politico, cosí in questo mondo “numerico” riempito da algo-bots che invadono le nostre realtá. Come oggetto politico, possiamo quindi attaccarlo con le armi classiche: militanza, lobbying e presa di coscienza con il potere politico, tentativi di influenzare e approfondire i processi normativi, dare valore a iniziative che contribuiscono all’autonomia e alla felicitá per l’intera specie umana. Ugualmente importante è domandare un ruolo piú centrale per la societá civile nella regolamentazione e nelle norme su Internet, e l’adozione di standard per tecnologie di rete 42, essendo ad esempio l'equivalente di un articolo nella costituzione di un paese.

A livello individuale, è necessario, indubbiamente, “de-googlizzare” Internet 43. Questo significa, come l’associazione Framasoft propone, supportare l’hosting di servizi autonomi, trasparenti, aperti, neutrali, basati sulla solidarietá (si veda, per esempio, l’iniziativa CHATONS 44, o il self-hosting 45 in un mini-server di poche pretese). Ci si puó anche camuffare usando cifratura end-to-end, anche se questo non è sempre adattabile o possibile da adottare (PGP e email); e a seconda della situazione possono esserci risorse per creare interferenze, tentando di nascondere il “vero” dato all’interno di un dataset finto ma credibile, cosa che un algoritmo amichevole puó provvedere in abbondanza.

Dal punto di vista del potere pubblico, c’è lavoro da fare. La strada verso la trasparenza etica è aperta, dobbiamo solo spingerci dentro gli algoritmi. Oggi è certamente necessario adottare un taglio di capelli e un trucco molto strano 46 per sfuggire ai sistemi di riconoscimento facciale 47, alla registrazione biometrica, al collegamento di banche dati pubbliche e alle derive digitali dello stato di emergenza, ora permanente, ci invitano a non mettere tutti i nostri byte nello stesso paniere.

È anche possibile prendere parte nel nutrire spazzatura a queste “algo-AI”, proprio come gli utenti di Twitter che sono riusciti a trasformare l’AI di Microsoft TAY in sessista, razzista e pro-Hitler in meno di un giorno 48.

Possiamo invece immaginare di crescere degli “algo-pony” che esclamerebbero, con un’onda della loro criniera multicolore, contro uno sfondo di campi verdi di dati, che “l’amicizia è magica!”.

Smancerie a parte, forse è necessario proporre un intermediario digitale, un “proxy” tra di noi, i nostri dati e gli attori pubblici e privati che li ospitano. Questo intermediario potrebbe tranquillamente ospitare Eliza 49, la mia AI strettamente personale che si nutre delle mie attivitá e preferenze per aiutarmi a meglio condividere dati e contenuti, anonimamente, dandoli a corpi pubblici in una logica di interesse generale, cifrandoli o rimescolandoli per scappare ai miei amici che non sono riusciti a uscire dai social network commerciali. Distribuite nelle tasche di ognuno, AI personali potrebbero diventare simbiotiche, in accordo con i loro tutor, nel comunicare micro finzioni all’umanitá nel contesto politico e culturale, con la visione di costruire realtá armoniose in cui algoritmi, umani, natura e mondo inorganico possano coabitare pacificamente.

1. Il titolo fa riferimento al libro di Cathy O’Neil: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown, 2016. (All’interno del titolo c’è un gioco di parole, intraducibile in italiano, tra “mass”, massa, e “math”, matematica: “weapon of mass destruction”, armi di distruzione di massa, diventa “weapons of math destruction”, armi di “distruzione di matematica” o “distruzione matematica”)
2. In questo racconto futuristico di Isaac Asimove, gli Stati Uniti sono diventati una “democrazia elettronica” dove il compter Multivac seleziona una singola persona per rispondere a un numero di domande. Multivac quindi usa le risposte e altre informazioni per determinare quali sarebbero i risultati di un’elezione, evitando di doverla tenere. (https://it.wikipedia.org/wiki/Diritto_di_voto_(racconto))
3. https://it.wikipedia.org/wiki/Bestiario
4. Dominique Cardon: A quoi rêvent les algorithmes. Nos vies à l’heure: Nos vies à l’heure des big data. Le Seuil, 2015.
5. Evgeny Morozov and Pascale Haas: Le mirage numérique: Pour une politique du Big Data. Les Prairies Ordinaires, 2015.
6. http://centenaire-shannon.cnrs.fr/chapter/la-theorie-de-information
7. https://it.wikipedia.org/wiki/PRISM_(programma_di_sorveglianza)
8. Terry Gilliam: Brazil (1985). http://www.imdb.com/title/tt0088846/
9. Cathy O’Neil: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown, 2016.
10. Alcuni giorni dopo, stipuló che gli ordini sarebbero dovuti arrivare dalla tastiera di un terminale e diede a Peterfly una settimana per disconnettersi da IBM. A questo punto, Peterffy assunse degli ingegneri per costruire una videocamera che leggesse lo schermo e mandasse l’informazione al cervello IBM dove mani elettromagnetiche avrebbero preso gli ordini trasmettendoli al terminale attraverso la tastiera.
11. Sniper In Mahwah: Anthropology, market structure & the nature of exchanges. https://sniperinmahwah.wordpress.com/
12. Il Flash Crash del 6 maggio 2010 analizzato da Nanex: http://www.nanex.net/20100506/FlashCrashAnalysis_Intro.html and
https://www.youtube.com/watch?v=E1xqSZy9_4I
13. Laumonier Alexandre: 5/6. Zones Sensibles Editions, 2014. http://www.zonessensibles.org/livres/6-5/
14. https://www.washingtonpost.com/news/worldviews/wp/2013/04/23/syrian-hackersclaim-ap-hack-that-tipped-stock-market-by-136-billion-is-it-terrorism/
15. Questa creatura è cosí costosa (una singola operazione richiede tanta energia quanto una casa media negli Stati Uniti usa in un giorno e mezzo) che è principalmente basata in Cina ed è al momento molto lenta. http://motherboard.vice.com/read/bitcoin-is-unsustainable
16. https://marmelab.com/blog/2016/04/28/blockchain-for-web-developers-thetheory.html
17. Capitalisation and everyday movements of crypto-currencies: http://coinmarketcap.com/
18. https://www.ethereum.org/
19. https://en.wikipedia.org/wiki/The_DAO_%28organization%29
20. Primavera De Filippi: “Ethereum: Freenet or Skynet?”. Berkman Center, 2014. https://cyber.harvard.edu/events/luncheon/2014/04/difilippi
21. http://www.theverge.com/2016/12/30/14128870/foxconn-robots-automation-appleiphone-china-manufacturing
22. https://www.washingtonpost.com/news/innovations/wp/2016/05/16/meet-ross-thenewly-hired-legal-robot/
23. Bernard Stiegler: La Société automatique. L'avenir du travail. Fayard, 2015. http://www.philomag.com/les-livres/fiche-de-lecture/la-societe-automatique-1lavenir-du-travail-11454
24. https://www.google.com/recaptcha/intro/index.html
25. https://it.wikipedia.org/wiki/Test_di_Turing
26. http://www.bizjournals.com/boston/blog/techflash/2015/01/massachusettswomans-lawsuit-accuses-google-of.html
27. https://www.google.com/webmasters/tools/legal-removal-request?complaint_type=rtbf
28. A 61-million-person experiment in social influence and political mobilization: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3834737/
29. https://it.wikipedia.org/wiki/Singolarit%C3%A0_tecnologica
30. Antoinette Rouvroy e Thomas Berns: “Gouvernementalité algorithmique et perspectives d'émancipation: Le disparate comme condition d'individuation par la relation?”. Politics of algorithms. Web-metrics. RESEAUX, Vol.31, n.177, pp. 163-196 (2013). http://works.bepress.com/antoinette_rouvroy/47/
31. ifapa.me è un collettivo dedicato a ricercare e sovvertire gli effetti della matematizzazione e della quantificazione nella vita quotidiana delle societá necrocapitaliste: http://www.ifapa.me/
32. https://www.washingtonpost.com/opinions/big-data-may-be-reinforcing-racialbias-in-the-criminal-justice-system/2017/02/10/d63de518-ee3a-11e6-9973c5efb7ccfb0d_story.html?utm_term=.b7f5ab5df1f9
33. http://www.genderit.org/feminist-talk/algorithmic-discrimination-andfeminist-politics
34. https://it.wikipedia.org/wiki/Tre_leggi_della_robotica
35. http://internetactu.blog.lemonde.fr/2017/01/21/peut-on-armer-la-transparencede-linformation/
36. Documentario “Le secret des 7 soeurs”: http://secretdes7soeurs.blogspot.fr/
37. http://www.fatml.org/resources/principles-for-accountable-algorithms
38. http://www.lemonde.fr/pixels/article/2016/09/28/intelligence-artificielleles-geants-du-web-lancent-un-partenariat-sur-l-ethique_5005123_4408996.html
39. http://www.internetactu.net/2016/03/16/algorithmes-et-responsabilites/
40. https://www.service-public.fr/particuliers/actualites/A11502
41. https://www-direction.inria.fr/actualite/actualites-inria/transalgo
42. The Internet Engineering Task Force (IETF): http://www.ietf.org/
43. http://degooglisons-internet.org/
44. http://chatons.org/
45. http://yunohost.org/
46. https://cvdazzle.com/
47. http://www.lemonde.fr/pixels/article/2016/10/19/inquietudes-autour-de-lareconnaissance-faciale-aux-etats-unis_5016364_4408996.html
48. https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbotgets-a-crash-course-in-racism-from-twitter
49. http://elizagen.org

results matching ""

    No results matching ""