GOVERNANCE ALGORITMICA

Sviluppo di un programma di ricerca attraverso il potere dell’intelligenza collettiva

John Danaher 1, Michael J Hogan 1, Chris Noone 1, Rónán Kennedy 1, Anthony Behan 2, Aisling De Paor 3, Heike Felzmann 1, Muki Haklay 4, Su-Ming Khoo 1, John Morison 5, Maria Helen Murphy 6, Niall O’Brolchain 1, Burkhard Schafer 7 e Kalpana Shankar 8

Astratto

Viviamo in un’era algoritmica in cui matematica e informatica si uniscono in nuovi e potenti modi per influenzare, modellare e guidare il nostro comportamento e il governo delle nostre società. Poiché queste strutture di governance algoritmica proliferano, è fondamentale garantirne l’efficacia e la legittimità. Cioè, dobbiamo garantire che siano un mezzo efficace per raggiungere un obiettivo politico legittimo che sia anche proceduralmente equo, aperto e imparziale. Ma come possiamo garantire che le strutture di governance algoritmica lo siano entrambe? Questo articolo condivide i risultati di un seminario sull’intelligenza collettiva che ha affrontato esattamente questa domanda. Il workshop ha riunito un gruppo multidisciplinare di studiosi per considerare (a) le barriere alla governance algoritmica legittima ed efficace e (b) i metodi di ricerca necessari per affrontare la natura e l’impatto di barriere specifiche. Una tecnica di laboratorio di gestione interattiva è stata utilizzata per sfruttare l’intelligenza collettiva di questo gruppo multidisciplinare. Questo metodo ha consentito ai partecipanti di produrre un quadro e un programma di ricerca per coloro che sono preoccupati per la governance algoritmica. Descriviamo questo programma di ricerca di seguito, fornendo una mappa dettagliata dei temi chiave della ricerca, delle domande e dei metodi che il nostro workshop ha ritenuto opportuno perseguire.
Ciò si basa sul lavoro esistente sui programmi di ricerca per studi di algoritmi critici in un modo unico attraverso il metodo dell’intelligenza collettiva.

Parole chiave
Governance algoritmica, Big Data, algocrazia, intelligenza collettiva, gestione interattiva, partecipazione pubblica

  1. National University of Ireland – Galway, Irlanda IBM, Irlanda
  2. Facoltà di Giurisprudenza e Governo, Dublin City University, Irlanda
  3. Dipartimento di geografia, University College London, UK
  4. School of Law, Queen’s University, Belfast, Regno Unito
  5. Facoltà di giurisprudenza, Maynooth University, Irlanda
  6. Facoltà di giurisprudenza, Old College, Università di Edimburgo, Regno Unito
  7. University College Dublin, Irlanda
  8. Autore corrispondente:
    John Danaher, Università nazionale dell’Irlanda – Galway, University Road, Galway, Irlanda.
    E-mail: john.danaher@nuigalway.ie
Introduzione

Viviamo in un’era algoritmica in cui matematica e informatica si uniscono in modi potenti per influenzare, modellare e guidare il nostro comportamento e il governo delle nostre società. Con la diffusione delle tecnologie di sorveglianza e la crescita dell’Internet delle cose, stiamo creando una vasta rete interconnessa di dispositivi di raccolta dati (Greengard 2015; Kellermeit e Obodovski, 2013). Questa rete produce dataset sempre più grandi di informazioni potenzialmente utili, aggiornate in tempo reale (Kitchin, 2014; Mayer-Schonberger e Cukier, 2013). Nessun essere umano può dare un senso a questi dati senza assistenza. Quindi c’è una significativa dipendenza dagli algoritmi per estrarre, analizzare, ordinare e configurare i dati in pacchetti utili. Spesso questi sistemi vengono mantenuti e modificati da progettisti e ingegneri umani e le informazioni vengono quindi utilizzate dagli esseri umani nei tradizionali sistemi decisionali aziendali e burocratici. Ma c’è anche una crescente volontà di esternalizzare l’autorità decisionale a sistemi decisionali basati su algoritmi.
Alcuni addirittura sognano di creare “algoritmi principali” che saranno in grado di apprendere e adattarsi a qualsiasi situazione decisionale senza la necessità di input o controllo umano
(Domingos, 2015).

Possiamo fare riferimento a queste tendenze convergenti utilizzando l’etichetta “governance algoritmica” o, forse più provocatoriamente, “algocrazia” (Aneesh, 2006, 2009; Danaher, 2016). Che ci piaccia o no, gli algoritmi vengono sempre più utilizzati per spingere, influenzare, guidare, provocare, controllare, manipolare e limitare il comportamento umano. A volte questo è vantaggioso; a volte benigno; a volte problematico (Danaher, 2016; Pasquale, 2015; Zarsky, 2016). Per garantire che sia più il primo che il secondo, un sistema di governance algoritmica dovrebbe essere progettato e implementato in modo da garantire sia la sua efficacia che la sua legittimità (Peter, 2017). Vale a dire, dovremmo assicurarci che sia un mezzo efficace per raggiungere un obiettivo politico, pur rimanendo proceduralmente equo, aperto e imparziale. Ma come possiamo garantire che i sistemi di governance algoritmica lo siano entrambi?

Questo articolo condivide i risultati di un seminario sull’intelligenza collettiva (CI) che abbiamo tenuto alla NUI Galway nel marzo 2016 che ha affrontato esattamente questa domanda. Il workshop ha riunito un gruppo multidisciplinare di studiosi per considerare
(a) le barriere alla governance algoritmica legittima ed efficace e
(b) i metodi di ricerca necessari per affrontare la natura e l’impatto di barriere specifiche.
Una tecnica di laboratorio di gestione interattiva (IM) (Warfield e Cardenas, 1994) è stata utilizzata per sfruttare l’IC di questo gruppo multidisciplinare. Questo metodo ha consentito ai partecipanti di produrre un quadro e un programma di ricerca per coloro che sono preoccupati per la governance algoritmica. Descriviamo questo programma di ricerca di seguito. Iniziamo spiegando alcuni dei retroscena del nostro workshop, inserendo i suoi risultati nel contesto dell’attuale letteratura sulla governance algoritmica.
Spieghiamo quindi i metodi e i risultati del nostro workshop. Infine, chiudiamo offrendo riflessioni sull’agenda di ricerca proposta dal gruppo. L’ordine del giorno proposto è quindi fornito nella tabella 2.

Contesto: comprensione della governance algoritmica

Le tendenze tecnologiche a cui si allude nel paragrafo di apertura sono relativamente recenti, ma hanno una storia più profonda. Il fenomeno della governance algoritmica fa parte di una tendenza storica più lunga verso la meccanizzazione della governance. I sociologi sin dai tempi di Weber hanno evidenziato i modi in cui l’organizzazione burocratico-legale dello Stato è soggetta alle stesse tendenze di modernizzazione del design delle fabbriche industriali (Kanter, 1991; Weber, 1947). Il risultato è un sistema di governance che è di natura macchina: i compiti sono suddivisi e i ruoli sono specializzati in modo da svolgere l’attività di governance nel modo più efficiente possibile. Ciò è sempre dipeso dalla raccolta di dati sulla società e sui cittadini a cui si applica il sistema (Hacking, 2006), e dagli albori dell’era dei computer sono stati fatti tentativi per automatizzare alcuni o tutti i processi. Figure chiave del movimento cibernetico, ad esempio, hanno sostenuto l’uso di sistemi computerizzati di raccolta dati, elaborazione e processo decisionale nella governance sociale (Medina, 2011; Morozov, 2014).

Ciò non significa che la governance algoritmica non sia una novità. I sistemi che consideriamo in questo articolo e che abbiamo considerato nel nostro laboratorio sono diversi dai loro antenati storici. Le differenze sono in gran parte una questione di grado e non di tipo. Le tecnologie che facilitano l’automazione della governance si basano sicuramente sulle strutture preesistenti, sfruttando così le precedenti innovazioni meccanicistiche. Ma la velocità, la scala e l’ubiquità delle tecnologie che rendono possibile la governance algoritmica sono più grandi ora di quanto non fossero in passato. I progressi nell’apprendimento automatico e nella raccolta dei dati consentono l’automazione di processi che in precedenza non sarebbero stati possibili.
Consentono inoltre un’elaborazione e una gestione dei dati molto più efficienti. Se a questo si aggiunge il fatto che le tecnologie di sorveglianza sono diventate più profondamente integrate nella nostra vita quotidiana, e sembra che siamo a un punto di svolta significativo per il futuro della governance algoritmica. Molti studiosi hanno iniziato a prestare attenzione a questa realtà emergente e questo ha dato origine a una fiorente letteratura accademica sul tema della governance algoritmica.

Il nostro workshop mirava a contribuire e sviluppare questa letteratura. Tre aspetti della letteratura erano di particolare interesse per noi, in particolare, gli aspetti incentrati su
(a) le forme/modalità di governance algoritmica,
(b) i problemi di governance algoritmica e
(c) i metodi per studiare la governance algoritmica.
Descriviamo brevemente questi aspetti di seguito, sottolineando come fanno luce sul fenomeno della governance algoritmica e come il nostro studio cerca di costruire su di essi.

Le forme di governance algoritmica

La prima tendenza riguarda la classificazione dei diversi sistemi di governance algoritmica. È stato svolto un lavoro considerevole sull’identificazione delle proprietà chiave dei sistemi Big Data che consentono la governance algoritmica contemporanea. Nel 2001, Doug Laney di Gartner ha proposto l’ormai classico framework “tre V” per comprendere l’emergere dei sistemi Big Data.
Questo quadro suggeriva che i Big Data fossero “grandi” in termini di volume, velocità e varietà. Da allora sono stati proposti framework più complessi (Kitchin e McArdle, 2016). Kitchin, ad esempio, ha sostenuto che ci sono almeno sette dimensioni per la grandezza, aggiungendo esaustività, risoluzione e indicicità, relazionalità ed estensionalità e scalabilità alle tre V (Kitchin, 2014). Queste elaborazioni sono utili in quanto ci aiutano a cogliere le proprietà dei Big Data e a comprendere meglio le sfide e le opportunità che pone nel contesto della progettazione di sistemi di governance algoritmica. Detto questo, qualsiasi sistema di classificazione di questo tipo tende ad essere carico di valore e sotto o eccessivamente inclusivo (Kitchin e McArdle, 2016). Questo commento si applica ugualmente bene agli altri sistemi di classificazione a cui ci riferiamo di seguito e ha implicazioni per la definizione e la portata dei sistemi di governance algoritmica.

Un altro aspetto della letteratura in corso riguarda la classificazione degli algoritmi stessi. Nuovi algoritmi vengono progettati continuamente, ma in genere rientrano in una serie di tipi generali che sono stati categorizzati in modo esaustivo dagli informatici (per un’introduzione di base vedere Cormen, 2013; per uno più completo, vedere Cormen et al., 2009) . Ad esempio, esistono algoritmi di ricerca e ordinamento che si suddividono in sottotipi come ricerca binaria, ordinamento per selezione, ordinamento per inserzione, ordinamento per unione e ordinamento rapido. Comprendere questi diversi tipi è importante quando si tratta di valutare le proprietà sociali e normative dei sistemi di governance algoritmica. Ad esempio, uno dei più importanti cambiamenti di alto livello nella progettazione di algoritmi negli ultimi anni è il passaggio da algoritmi “top-down” (in cui un programmatore o un team di programmatori definisce in modo esaustivo il set di regole per l’algoritmo) a “bottom up ‘algoritmi di apprendimento automatico (in cui all’algoritmo viene assegnata una regola di apprendimento e addestrato su grandi set di dati al fine di sviluppare le proprie regole). Questo cambiamento è importante perché l’uso di algoritmi bottom-up crea alcuni problemi quando si tratta di trasparenza e opacità dei sistemi di governance algoritmica, in particolare quando tali algoritmi sono incorporati in strutture di governance già opache. La consapevolezza di questo problema era parte della motivazione originale per il nostro workshop e qualcosa che è stato ripetutamente evidenziato dai partecipanti. Uno degli obiettivi principali, di conseguenza, era sviluppare un’agenda di ricerca che potesse affrontare le conseguenze di questo cambiamento.

Un aspetto finale della letteratura in corso sulla classificazione dei sistemi di governance algoritmica è di natura più esplicitamente valutativa. È intrapreso principalmente da teorici etici e legali e si concentra sull’identificazione delle fasi chiave nel processo di governance algoritmica e sul modo in cui si relazionano ai sistemi di governance preesistenti. Quattro fasi sono identificate dalla maggior parte dei contributori a questa letteratura. Sono raccolta, elaborazione, utilizzo, feedback e apprendimento (Citron e Pasquale, 2014; Pasquale, 2015; Zarsky, 2013).
Si dice spesso che queste fasi definiscano “ciclo” di governance: il sistema acquisisce le informazioni, le elabora, le utilizza e quindi si alimenta da sé apprendendo da ciò che ha fatto (Carr, 2015; Citron e Pasquale, 2014; Zarsky, 2013). A questo proposito, un sistema di governance algoritmico funziona come un sistema quasi intelligente e adattivo. Da un punto di vista normativo, una delle principali preoccupazioni è capire come gli esseri umani sono coinvolti nelle diverse fasi. La partecipazione umana e la comprensione della governance è generalmente considerata un importante determinante della legittimità sociale e politica. E, naturalmente, l’impatto di tali sistemi sul comportamento umano è spesso la chiave per la loro valutazione etica e normativa. Conseguentemente, notevole attenzione è stata posta alla classificazione dei sistemi sulla base del tipo e del grado di coinvolgimento umano.
Citron e Pasquale (2014), ad esempio, adottano un sistema di classificazione utilizzato in contesti militari per distinguere tra sistemi in cui gli esseri umani sono in loop, on the loop o off the loop.

Identificazione dei problemi con la governance algoritmica

Sebbene con il nostro studio non abbiamo cercato di aggiungere ulteriore complessità a questi sistemi di classificazione, li abbiamo trovati preziosi quando si trattava di comprendere e identificare le potenziali carenze o problemi nell’uso dei sistemi di governance algoritmica. Questa è la seconda grande tendenza nella letteratura attuale e quella a cui abbiamo cercato di contribuire più direttamente. Ci sono molti vantaggi proposti per la governance algoritmica, tra cui velocità, efficienza, completezza e correttezza (Domingos, 2015; Mayer-Schonberger e Cukier, 2013; Zarsky, 2012). Ma c’è anche un campo in crescita di studi sugli algoritmi critici che cerca di individuare i problemi sociali, etici, politici e legali che possono essere prodotti o rafforzati da questi sistemi (Gillespie e Seaver, 2016). Esiste un’ampia e ben nota letteratura sulle questioni relative alla privacy e alla protezione dei dati associate ai sistemi di sorveglianza che sono alla base della governance algoritmica (Polonetsky e Tene, 2013).
Esistono diversi studi che evidenziano potenziali pregiudizi nella raccolta e nell’utilizzo dei dati (Crawford, 2013; Kraemer et al., 2011; O’Neil, 2016). Ci sono altri studi che esprimono preoccupazioni sull’emergente “divario dei Big Data” che garantisce che solo le grandi istituzioni possano realizzare i benefici della rivoluzione dei dati (Mittelstadt e Floridi, 2016). Ci sono molti studiosi che parlano dell’opacità e della mancanza di trasparenza che potrebbero essere inerenti alla governance algoritmica, in particolare quando il sistema di governance è guidato dall’apprendimento automatico (Burrell, 2016; Danaher, 2016) e quando è protetto da una rete di leggi sulla segretezza proteggere tali algoritmi (Pasquale, 2015).
Ci sono anche preoccupazioni per le imprecisioni, le inefficienze e le conseguenze indesiderate di questi sistemi. Tutti questi problemi minacciano di minare l’efficacia e la legittimità della governance algoritmica.
Zarsky (2016) fornisce una tassonomia per classificare tutti i problemi discussi fino ad oggi in letteratura. Sostiene che i sistemi decisionali algoritmici hanno due proprietà chiave: sono potenzialmente opachi e possono essere automatizzati. Sostiene quindi che queste due proprietà danno luogo a una particolare tassonomia delle obiezioni. Questa tassonomia divide lo spazio del problema in due rami principali:
(I) un ramo dell’efficienza (che copre i problemi derivanti dall’inesattezza delle decisioni prese in base all’assistenza algoritmica); e
(II) un ramo dell’equità (che copre i problemi derivanti dal trattamento iniquo delle persone nell’ambito di sistemi di governance algoritmica).
Questi rami si suddividono in sottorami correlati (problemi di previsione, problemi di dati errati, problemi di trasferimento di ricchezza ingiusto, problemi di arbitrarietà e così via), permettendoci di mappare uno spazio ragionevolmente completo di problemi che potrebbero derivare dalla governance algoritmica (vedi Figura 1 ). Essere consapevoli di questi potenziali problemi potrebbe, secondo Zarsky, essere un vantaggio per la ricerca futura.

Sebbene il lavoro di Zarsky su questo sia utile e perspicace, è in gran parte il prodotto della sua prospettiva personale, sebbene altamente informata, sull’argomento. Una delle cose che abbiamo cercato di fare attraverso il nostro seminario CI è stata quella di sfruttare le intuizioni di un gruppo di studiosi con diverse esperienze accademiche, applicate e industriali nel tentativo di mappare uno spazio problematico completo, incentrato specificamente sulle barriere alla governance algoritmica legittima ed efficace. Ci aspettavamo che le barriere identificate dai nostri partecipanti sarebbero state complementari a quelle identificate da Zarsky, ma avrebbero anche fornito una prospettiva più disciplinatamente diversificata sullo spazio problematico. Inoltre, eravamo consapevoli del fatto che Zarsky non collegava la sua tassonomia dei problemi a un’agenda di ricerca esplicita per superare le barriere alla governance algoritmica legittima ed efficace. Questo è qualcosa che abbiamo tentato esplicitamente attraverso la nostra metodologia CI.

Figura 1. Tassonomia delle obiezioni di Zarsky al processo decisionale algoritmico. 1

Metodi per lo studio della governance algoritmica

Questo ci porta alla tendenza finale della letteratura attuale, alla quale abbiamo anche cercato di contribuire in modo più diretto. Questo riguarda l’identificazione di domande e metodi di ricerca chiave che potrebbero migliorare ulteriormente la nostra comprensione della governance algoritmica e far avanzare l’agenda degli studi sugli algoritmi critici.
Finora è stato svolto un lavoro sistematico relativamente limitato su questo argomento. Lo sforzo più concertato è quello di Kitchin (2017). Sostiene che uno degli obiettivi principali degli studi sugli algoritmi critici dovrebbe essere quello di comprendere meglio i processi attraverso i quali vengono progettati e implementati i sistemi di governance algoritmica. In particolare, sostiene che occorre prestare attenzione ai problemi di “traduzione” che sorgono quando gli obiettivi politici devono essere convertiti in codice informatico. Quindi identifica tre sfide principali che devono affrontare chiunque desideri comprendere questi processi e sei potenziali approcci metodologici per superarli. Ciascuno di questi approcci metodologici porta con sé una serie di metodi di ricerca plausibili. Il risultato di ciò è la struttura illustrata nella Tabella 1. Nota mentre leggi che i sei approcci metodologici non si riferiscono direttamente alle tre sfide, ma suggeriscono invece una gamma di metodi di ricerca potenzialmente utili che potrebbero aiutare a superare tali sfide.
Kitchin fornisce quindi un utile punto di partenza e una struttura per chiunque desideri fare una ricerca seria in questo settore. Ancora una volta, tuttavia, il quadro deriva dalla mente di un singolo studioso e non è il prodotto di diverse prospettive disciplinari.
Inoltre, non è direttamente collegato a una mappa più completa, categorizzata e coerente dello spazio problematico associato alla governance algoritmica. Attingendo all’IC di un gruppo di studiosi, speravamo di fornire, tramite il nostro workshop, un quadro più diversificato, innovativo e completo di domande e metodologie di ricerca che sia direttamente collegato a una mappa dello spazio problematico. Questo, crediamo, aiuterà a costruire e completare il quadro di Kitchin e suggerirà modi per far progredire la ricerca nell’area della governance algoritmica. Passiamo ora alla metodologia del nostro workshop e ai risultati che ne abbiamo ottenuto.

Metodi – Intelligenza collettiva

Per il nostro seminario, abbiamo utilizzato una metodologia CI nota come “gestione interattiva” (Warfield e Cardenas, 1994). Ciò ha fornito un approccio sistematico quando si lavora con i partecipanti al workshop per identificare le barriere alla governance algoritmica3 legittima ed efficace e per sviluppare un programma di ricerca che aiuterebbe ad affrontare queste barriere.
L’IM è stato originariamente progettato per assistere i gruppi nell’affrontare questioni complesse (Warfield, 1976). I costrutti teorici che informano l’IM attingono alle scienze comportamentali e cognitive, con una solida base nel pensiero sistemico generale. L’approccio IM delinea attentamente i ruoli noti come ‘contenuto’ e ‘processo’, assegnando ai partecipanti al workshop la responsabilità di fornire idee sui contenuti e al facilitatore del workshop la responsabilità di scegliere e implementare i processi selezionati, in particolare, le metodologie per la generazione, chiarire, strutturare, interpretare e modificare le idee.

Tabella 1. Quadro di ricerca di Kitchin (2017).2

Focus della ricerca

  • Problema di traduzione: come viene convertita la politica in codice?

Sfide della ricerca

  • Black boxing: gli algoritmi sono spesso proprietari. Sono posseduti e controllati da aziende e governi ei loro meccanismi precisi sono spesso nascosti alla vista.
  • Eterogeneità e incorporamento contestuale: gli algoritmi sono spesso creati da grandi team, assemblati da pacchetti di codice preesistenti e incorporati in reti complesse di altri algoritmi.
  • Ontogenetico e performativo: gli algoritmi non sono statici e immutabili. Sono spesso modificati e adattati in risposta alle interazioni dell’utente; si sviluppano e cambiano in modi incontrollabili e imprevedibili.

Approcci e metodi metodologici

  • Esame del codice: decostruire il codice setacciando la documentazione, mappare le genealogie degli algoritmi, esaminare come la stessa attività viene tradotta in linguaggi di codifica separati ed eseguita su piattaforme diverse.
  • Codice di produzione riflessiva: il metodo auto-etnografico, ovvero riflettere su come convertire il problema in un set di regole e codice associato.
  • Reverse engineering: selezionare dati fittizi e vedere cosa viene emesso in vari scenari (ad esempio testare il Pagerank di Google o l’Edgerank di Facebook), seguire i dibattiti tra gli utenti, intervistare coloro che cercano di giocare a sistemi algoritmici e così via.
  • Interviste ed etnografie dei programmatori: osservare attentamente e intervistare i membri dei team di programmazione mentre costruiscono un algoritmo.
  • Disimballare l’assemblaggio socio-tecnico: cioè analisi discorsiva di documenti aziendali, materiale di settore, gare d’appalto, standard legali e quadri.
  • Studiare gli effetti del mondo reale: condurre esperimenti con gli utenti, interviste agli utenti e/o etnografie ed esplorare in altro modo gli effetti sociali degli algoritmi.

In un workshop IM, viene data enfasi al bilanciamento delle esigenze comportamentali e tecniche del lavoro di gruppo (Broome e Chen, 1992) rispettando le leggi di progettazione riguardanti varietà, parsimonia e rilevanza (Ashby, 1958; Boulding, 1966; Miller, 1956). La messaggistica istantanea è stata applicata in una varietà di situazioni per raggiungere molti obiettivi diversi, incluso lo sviluppo di unità didattiche (Sato, 1979), la progettazione di un’agenda nazionale per l’assistenza infermieristica pediatrica (Feeg, 1988), la creazione di sistemi informativi basati su computer per le organizzazioni (Keever, 1989), assistendo i consigli comunali nell’effettuare tagli al budget (Coke e Moore, 1981), migliorando il processo di acquisizione del Dipartimento della Difesa degli Stati Uniti (Alberts, 1992), promuovendo la pace nel mondo (Christakis, 1987), migliorando il processo di governance tribale nelle comunità dei nativi americani (Broome , 1995) e facilitatori della formazione (Broome e Fulbright, 1995). La messaggistica istantanea è stata anche recentemente utilizzata in una varietà di applicazioni scientifiche di base, ad esempio, per progettare un sistema di misurazione del benessere nazionale (Hogan et al., 2015b), per comprendere le funzioni adattive dell’ascolto musicale (Groarke e Hogan, 2015), capacità di pensiero critico (Dwyer et al., 2014) e competenze imprenditoriali (Rezaei Zadeh et al., 2016).4
In una tipica sessione di messaggistica istantanea, un gruppo di partecipanti che sono a conoscenza di una particolare situazione
(a) sviluppa una comprensione di una situazione che devono affrontare,
(b) stabilisce una base collettiva per pensare al proprio futuro in relazione a quella situazione e
(c) produrre un quadro per un’azione efficace.
IM utilizza una serie di metodologie di gruppo, adattate alle diverse fasi dell’interazione di gruppo e ai requisiti della situazione. Questi includono la tecnica del gruppo nominale (NGT), la scrittura di idee, la modellazione strutturale interpretativa e le rappresentazioni di campo e profilo. Le prime due metodologie vengono utilizzate per generare idee che vengono poi strutturate utilizzando una o più delle ultime tre metodologie. Il nostro seminario ha utilizzato una combinazione di NGT, scrittura di idee e rappresentazioni sul campo (vedere la sezione “Il processo“). A nostra conoscenza, questa rappresenta la prima applicazione dell’IM per esaminare le barriere alla governance algoritmica legittima ed efficace e alla ricerca che aiuterebbe ad affrontare queste barriere.

Partecipanti

Un totale di 15 partecipanti (10 uomini, 5 donne) provenienti da diversi background accademici e industriali sono stati invitati a partecipare a un seminario CI come parte di una conferenza sulla governance algoritmica presso NUI Galway.
Tutte le spese relative all’evento, inclusi viaggio e alloggio, sono state finanziate dal Whitaker Institute presso NUI Galway e dall’Irish Research Council. La partecipazione era solo su invito. I partecipanti sono stati selezionati dal primo e dal quarto autore. Sono stati selezionati sulla base dei loro interessi di ricerca e della loro esperienza, al fine di garantire un insieme ragionevolmente diversificato di background disciplinari e di raggiungere un ragionevole equilibrio di rappresentanza da entrambi i sessi. Non siamo riusciti a raggiungere un equilibrio ideale in quest’ultimo aspetto, ma siamo riusciti a raggiungere un obiettivo minimo di un terzo delle partecipanti femminili. Sono stati invitati più partecipanti (20) di quelli che potevano partecipare e partecipare (15), e due dei partecipanti si sono autoselezionati (abbiamo pubblicizzato l’evento all’interno della nostra istituzione e ai colleghi di altri partecipanti invitati e abbiamo chiesto alle persone interessate di esprimere il loro interesse via e-mail prima di ricevere un invito a partecipare). I background dei partecipanti includevano informatica, diritto, biblioteconomia, filosofia, geografia, psicologia, scienza dei dati, scienze politiche e sistemi di informazione. Uno dei partecipanti era un ex funzionario eletto e molti avevano qualche precedente esperienza nel servizio civile. Tre dei partecipanti avevano un background nella programmazione di computer e avevano lavorato nell’industria.
Uno dei partecipanti all’epoca era impiegato da un’azienda con un interesse commerciale nella tecnologia, ma questo è stato dichiarato ed è stato chiarito che stava partecipando su base personale e non commerciale.
Tutti i partecipanti sono stati informati sulla procedura dello studio e hanno dato il loro consenso informato.
Ci sono domande da porre riguardo alla rappresentatività del gruppo. Abbiamo cercato i partecipanti sulla base delle loro competenze accademiche e tecniche piuttosto che sulla base di altri criteri. Riflettiamo su alcune delle questioni che ciò potrebbe sollevare per i risultati del workshop nella sezione conclusiva.

Il processo

C’erano quattro fasi coinvolte nel processo di IM:

  1. ai partecipanti è stato chiesto di generare e chiarire le barriere alla governance algoritmica legittima ed efficace utilizzando un metodo NGT modificato,
  2. i facilitatori hanno classificato queste barriere per creare una rappresentazione sul campo delle barriere,
  3. i partecipanti si sono impegnati in più cicli di scrittura di idee e discussioni di gruppo per generare e chiarire le opzioni di ricerca in risposta alle barriere,
  4. i fogli di scrittura delle idee risultanti sono stati trascritti e analizzati per sintetizzare le opzioni di ricerca per un programma di ricerca proposto.

La tecnica del gruppo nominale (NGT; Delbeq et al., 1975) è un metodo che consente di raggruppare idee individuali. Nello studio corrente è stata utilizzata una versione modificata del metodo NGT faccia a faccia standard, con un pool iniziale di idee raccolte via e-mail. Il metodo NGT prevede quattro passaggi:

  • (a) ai partecipanti è stata presentata una dichiarazione di contesto e una domanda di stimolo (la domanda era “quali sono le barriere a una governance algoritmica legittima ed efficace?”) Via e-mail;
  • (b) i partecipanti hanno generato cinque risposte a questa domanda di stimolo lavorando da soli e poi hanno inviato le loro risposte ai facilitatori via e-mail;
  • (c) i facilitatori hanno registrato queste idee da affiggere sui muri che circondano il gruppo durante il seminario;
  • (d) i partecipanti si sono impegnati in una discussione seriale delle idee elencate al solo scopo di chiarirne il significato (durante la prima ora del workshop).

Le rappresentazioni sul campo sono state generate prima dell’incontro faccia a faccia e del workshop con i partecipanti utilizzando il metodo di confronto a coppie (Rezaei Zadeh et al., 2016) per confrontare le barriere a coppie e identificare le categorie di barriere correlate. Le etichette di categoria sono state generate dopo aver raggruppato le idee correlate, con tre programmatori interdipendenti che lavorano insieme per classificare un totale di 57 idee.
Il metodo di scrittura delle idee (Paulus e Yang, 2000) è stato quindi utilizzato dai partecipanti per proporre idee di ricerca, insieme a metodi e metodologie dichiarati, che potrebbero facilitare la comprensione e aiutare ad affrontare le barriere alla governance algoritmica legittima ed efficace. I membri del gruppo hanno scritto le loro idee su fogli di carta e le hanno scambiate su un tavolo delle idee, leggendo in silenzio le idee degli altri e aggiungendole al set di idee, prima della discussione di gruppo sull’intero set di idee e della presentazione round-robin delle idee per la facilitazione di squadra. Due facilitatori di messaggistica istantanea formati hanno facilitato la sessione di scrittura delle idee, che è durata 2 ore.

Risultati – Barriere, domande di ricerca e metodi di ricerca

I partecipanti hanno identificato 12 principali categorie di barriere a una governance algoritmica efficace e legittima (vedere Figura 2) e un’ulteriore sfida posta dalla natura interdisciplinare dell’argomento. Hanno inoltre identificato un’ampia gamma di temi di ricerca (vedi Figura 3) e metodi (vedi Figura 4) che potrebbero essere utilizzati per affrontare questi ostacoli. Quello che segue è una descrizione di tutte le 13 barriere insieme alla serie di domande di ricerca e metodi che i partecipanti hanno proposto per affrontare e superare queste barriere. Questo costituisce il programma di ricerca proposto dal workshop.

Opacità degli algoritmi

Una delle principali preoccupazioni emerse nella letteratura sulla governance algoritmica è l’effettiva e potenziale opacità di tali sistemi. I partecipanti hanno convenuto che questo è un problema, evidenziando in particolare come la mancanza di comprensione da parte del pubblico e del governo ha lavorato accanto all’opacità intrinseca e artificiale nella costruzione di strutture di governance algoritmica.

Figura 2. Categorie di barriere alla governance algoritmica legittima ed efficace, inclusi esempi di dichiarazioni di barriera.
Figura 3. Temi chiave di ricerca in risposta alle barriere alla governance algoritmica legittima ed efficace.

Un partecipante ha suggerito di analizzare i discorsi fatti da politici e altri decisori chiave per vedere con quale frequenza raccolgono idee di scienza popolare nelle loro discussioni sulla tecnologia. Anche un’attenta analisi delle rappresentazioni culturali e delle rappresentazioni delle tecnologie è stata suggerita come importante quando è arrivata alla comprensione delle cause e delle origini del tecno-utopismo. I partecipanti hanno ritenuto che fosse importante comprendere gli effetti a lungo termine del tecno-utopismo con una persona che suggeriva che un’analisi longitudinale del corpus potrebbe essere utilizzata per mappare i cambiamenti negli atteggiamenti emotivi nei confronti della tecnologia nel tempo. Sono stati inoltre suggeriti studi di casi osservazionali e comparativi di programmatori, sviluppatori e agenzie governative competenti durante la progettazione e l’implementazione di sistemi di governance algoritmica come un modo per identificare i limiti e i pregiudizi che potrebbero derivare dal tecno-utopismo. Oltre a questo, i partecipanti hanno ritenuto che dovremmo esplorare vari modi per aumentare la consapevolezza del tecno-utopismo, magari attraverso l’uso di videogiochi e fumetti. Riflettendo su questi suggerimenti dopo il seminario, vorremmo suggerire che, affinché queste metodologie di ricerca siano efficaci, i ricercatori avrebbero bisogno di una definizione e di una misura chiara del “tecno-utopismo”.

Figura 4. Conteggio della frequenza dei metodi di ricerca proposti.

Tecno-pessimismo

In contrasto con la barriera precedente, molti dei nostri partecipanti hanno suggerito che il pessimismo riguardo ai progressi tecnologici potrebbe essere un ostacolo a una governance algoritmica efficace e legittima. Hanno proposto diverse linee di ricerca per capire di più su questo tecno-pessimismo. Hanno identificato la necessità di formare una comprensione comune di ciò che costituisce tecno-pessimismo, quando può essere giustificato, e in quali condizioni si applica a una tecnologia specifica o alla tecnologia in generale. I partecipanti hanno suggerito di esaminare se i danni dovuti alla proliferazione di dispositivi tecnologici nella vita dei giovani siano evidenti. Questo potrebbe far luce sulla giustificazione del tecno-pessimismo generalizzato. Sono state anche suggerite indagini sui possibili danni che presenta la governance algoritmica, come la diffamazione e il danno al credito, quando si esamina un tipo più ristretto di tecno-pessimismo. Un altro suggerimento è stato quello di esaminare analoghe esperienze storiche di tecno-pessimismo nella governance.
A seguito dello sviluppo di una definizione coerente di tecno-pessimismo, i partecipanti hanno suggerito che sarebbero appropriate indagini sulla prevalenza del tecno-pessimismo, in particolare tra i regolatori.
Ciò richiederebbe lo sviluppo e la convalida di misure di tecno-pessimismo. Lo sviluppo di tali misure faciliterebbe due ulteriori linee di ricerca suggerite dai nostri partecipanti, una delle quali si concentrerebbe sulla causa del tecno-pessimismo e l’altra sui suoi effetti. I partecipanti hanno menzionato cause specifiche di tecno-pessimismo che potrebbero giustificare un’indagine.
Questi erano:

  • esperienze negative della tecnologia,
  • campagna pubblicitaria sulla protezione dei dati,
  • mancanza di conoscenza,
  • effetti dell’età,
  • livello di impegno politico e
  • velocità di rilascio delle tecnologie.

I partecipanti hanno anche menzionato i possibili effetti del tecno-pessimismo che potrebbero giustificare un’indagine, incluso il possibile svantaggio di alcuni settori della società a causa della loro paura della tecnologia.
Sono state proposte metodologie sia quantitative che qualitative adatte per far progredire queste linee di ricerca, sebbene sia stata suggerita una gamma più ampia di metodologie qualitative tra cui interviste, casi di studio, focus group e metodi di osservazione. Indagini ed esperimenti sono stati proposti come possibili approcci quantitativi.

Incertezza tecnologica

L’apparente incertezza riguardo agli effetti dello sviluppo tecnologico è stata vista come una barriera significativa a una governance algoritmica efficace e legittima. I partecipanti pensavano che l’incertezza avesse dimensioni sia soggettive che oggettive.
Dal punto di vista oggettivo, è stato suggerito che, in generale, abbiamo una scarsa comprensione dei modi contingenti in cui si sviluppa la tecnologia. Questo è stato collegato nelle nostre discussioni partecipanti alla natura sperimentale ed eticamente incerta di tutte le nuove tecnologie.
Le strategie di ricerca proposte includevano lo studio degli effetti dello sviluppo tecnologico da un punto di vista sia storico che etico. L’approccio storico è stato visto come utile per esaminare le conseguenze indesiderate dei nuovi sistemi di informazione e per mappare l’evoluzione dinamica della tecnologia. Un suggerimento è stato quello di acquisire tutti i documenti su un sistema di governance algoritmico completo utilizzando una richiesta di libertà di informazione al fine di esaminare come quel sistema è cambiato dallo sviluppo all’implementazione.
Dal punto di vista soggettivo, l’incertezza tecnologica era vista come una questione di percezione, causata da una mancanza di comprensione tecnologica o da una mancanza di interesse tra il pubblico e i responsabili politici. I partecipanti hanno suggerito che le nostre strategie di ricerca si concentrino sull’accertamento della portata di tale incertezza e delle sue cause. Hanno ritenuto che si potesse fare ricerca per vedere come affrontarlo al meglio attraverso interviste, focus group e progetti di sensibilizzazione. I partecipanti hanno anche ritenuto che la mancanza di chiarezza riguardo al contributo dei funzionari governativi allo sviluppo di algoritmi nel settore pubblico fosse una fonte significativa di incertezza tecnologica. Ciò ha suggerito che era necessario indagare su come vengono sviluppati i principali sistemi di e-government ed è stato suggerito che ciò potrebbe essere fatto utilizzando metodi etnografici. Un’altra linea di ricerca suggerita in questo senso è stata l’indagine su come i responsabili politici lavorano con gli esperti e su come i governi assicurano che le competenze specifiche siano prese in considerazione nel processo decisionale algoritmico.

Capacità/conoscenza tra i tecnologi

Gli esperti tecnici esercitano molto potere quando si tratta di progettare sistemi di governance efficaci e legittimi, ma molti dei nostri partecipanti temevano che gli esperti tecnici non conoscessero i sistemi di governance legali (e di altro tipo) con cui interagiscono. Temevano inoltre che tali esperti potessero non essere consapevoli dei propri pregiudizi impliciti e di come influenzano il processo di codifica e potrebbero essere ostili agli estranei che non hanno la loro competenza tecnica.
Per affrontare queste barriere, i partecipanti hanno suggerito di avere un’idea più chiara degli atteggiamenti dei programmatori verso se stessi, il loro lavoro e coloro che sono al di fuori della loro disciplina. In particolare, hanno ritenuto che i ricercatori dovrebbero capire fino a che punto i tecnologi stanno sviluppando la propria cultura interna e il proprio pensiero di gruppo, fino a che punto resistono alle prospettive esterne critiche e la loro consapevolezza generale dei pregiudizi impliciti.
Lo sviluppo di questa comprensione potrebbe essere ottenuto attraverso studi di casi, sondaggi e interviste.
Inoltre, poiché l’atteggiamento e la consapevolezza del diritto erano una preoccupazione particolare, i nostri partecipanti hanno ritenuto che la ricerca dovesse concentrarsi sulla conoscenza giuridica e sulle reazioni al diritto tra i tecnologi. Ciò potrebbe includere test di conoscenza giuridica, analisi della misura in cui i programmatori incorporano modifiche legali nel loro codice e fino a che punto i programmatori cercano di difendersi da controversie nelle loro decisioni di codifica. Indagini, casi di studio e interviste sono stati nuovamente suggeriti come metodi preferibili. Infine, diversi partecipanti hanno raccomandato di esaminare il background educativo dei tecnologi e di considerare i vantaggi di un ampio modello di apprendimento permanente per i tecnologi.

Capacità tra funzionari e rappresentanti pubblici

Allo stesso modo, molti dei nostri partecipanti erano preoccupati che una mancanza di competenza tra i politici e i lavoratori del settore pubblico potesse essere un ostacolo a una governance algoritmica efficace e legittima. Le preoccupazioni variavano da domande sulle abilità matematiche tra i politici, a domande sugli appalti e sulle capacità dei sistemi informativi nelle organizzazioni del settore pubblico. Per ricercare queste barriere, i partecipanti hanno suggerito, in primo luogo, che abbiamo un senso chiaro delle definizioni di “capacità” e “competenza” nel contesto del servizio pubblico. La chiarezza potrebbe essere raggiunta reclutando focus group di lavoratori del servizio pubblico per raggruppare e perfezionare le definizioni. Anche la comprensione dell’entità del problema della capacità nel settore pubblico è stata considerata un’importante priorità di ricerca.
I partecipanti hanno affermato che la ricerca dovrebbe concentrarsi sull’identificazione dei livelli di competenza necessari ai decisori chiave. Ciò potrebbe essere ottenuto attraverso studi di casi storici di organizzazioni del settore pubblico, interviste qualitative e narrative con attori chiave, interviste e focus group che analizzano la comprensione dell’incertezza e studi comparativi di diverse agenzie governative e lavoratori del settore privato. Anche acquisire una migliore gestione delle competenze dei politici con il ragionamento matematico e i sistemi informativi è stata considerata una strategia di ricerca chiave. Infine, i partecipanti hanno raccomandato che la ricerca si concentrasse su come sorgono e come vengono gestiti i problemi di competenza nel settore pubblico.
In particolare, hanno suggerito di condurre studi su chi viene reclutato nel settore pubblico, chi ottiene l’autorità decisionale, qual è il rapporto tra il settore pubblico e privato e come si tiene conto delle persone quando le cose vanno male. A questo proposito sono stati raccomandati numerosi metodi, inclusi metodi di teoria della rete di attori, per mappare le relazioni tra individui e organizzazioni sociali, analisi comparativa e internazionale delle destinazioni dei laureati, richieste di libertà di informazione per raccogliere informazioni pertinenti e studi di casi dettagliati.

Capacità tra avvocati e sistemi legali

Se la governance algoritmica è qualcosa che alla fine è resa possibile e ritenuta responsabile dalla legge, allora è importante comprendere la capacità dei sistemi legali e degli attori legali di gestirla. I nostri partecipanti erano sensibili a questa esigenza, con diverse preoccupazioni espresse sulla formazione degli avvocati, la natura inflessibile e conservatrice dei codici legali e la possibilità che si aprissero lacune normative che impediscono alle persone di contestare gli esiti negativi della governance algoritmica. Per superare queste barriere, i partecipanti hanno suggerito di esaminare la misura in cui i problemi legali stanno già sorgendo dai sistemi di governance algoritmica. Ciò potrebbe essere ottenuto mediante revisioni della letteratura e interviste con figure giuridiche chiave (ad es. Pubblici ministeri o autorità di regolamentazione). È stata inoltre raccomandata l’esplorazione creativa di possibili problemi legali, con un partecipante che ha suggerito che ciò potrebbe essere ottenuto attraverso tribunali discutibili sperimentali (processi fittizi).
I partecipanti hanno anche suggerito di identificare i problemi relativi alla capacità analizzando il codice esistente e classificando gli errori che emergono da questo codice a seconda che siano di natura “tecnica” o “legale”. Ciò potrebbe essere reso possibile attraverso studi di casi che combinano interviste con analisi di documenti.

Complessità giuridica e istituzionale

La complessità e la mancanza di trasparenza sugli algoritmi sono spesso considerate barriere alla governance legittima. I nostri partecipanti hanno espresso alcune preoccupazioni su come la complessità nei sistemi giuridico-burocratici che implementano sistemi di governance algoritmica possa contribuire a questi problemi. Sono state espresse diverse preoccupazioni distinte. Alcuni partecipanti si sono preoccupati della complessità dei sistemi burocratici in sé; alcuni sono preoccupati per la maggiore complessità derivante dall’uso delle TIC all’interno di questi sistemi; e alcuni sono preoccupati per i modi in cui le leggi contribuiscono alla mancanza di trasparenza associata ai sistemi di governance algoritmica. I partecipanti hanno raccomandato di intraprendere una ricerca per affrontare ciascuna di queste tre preoccupazioni. Alcuni partecipanti hanno suggerito di indagare le complessità precedenti ed esistenti nei sistemi burocratici, utilizzando studi di casi storici, cartografie visive delle relazioni tra diverse organizzazioni, tracciamento dei processi e studi comparativi. Un partecipante ha suggerito di trarre vantaggio dalla nostra esperienza con i regimi normativi esistenti che richiedono la raccolta e il monitoraggio delle informazioni ambientali e condurre uno studio dettagliato di come le istituzioni rispondono alle modifiche normative. Altri hanno suggerito di concentrarci su come le TIC vengono adottate e utilizzate nei sistemi burocratici. Ciò potrebbe essere fatto confrontando l’uso di sistemi proprietari e open source nella gestione dei dati e conducendo un’analisi del modello mentale delle principali parti interessate che confrontino il modo in cui pensano che i sistemi ICT funzionino con il loro effettivo funzionamento. Infine, un partecipante ha raccomandato di indagare sul modo in cui i sistemi di governance algoritmica sono descritti e inquadrati nei casi legali che coinvolgono questioni di privacy e protezione dei dati. Ci sono già molti casi su questi temi e forniscono informazioni su come i sistemi legali potrebbero far fronte alla governance algoritmica più in generale.

Interessi commerciali e pubblici

La mancanza di equilibrio tra interessi privati ​​guidati dal profitto e interessi pubblici socialmente guidati è stata vista come un altro ostacolo significativo. Un partecipante ha notato che questa mancanza di equilibrio ha portato a un divario tra il ritmo dello sviluppo commerciale dei sistemi decisionali algoritmici e le applicazioni più limitate nel settore pubblico. Il partecipante ha suggerito che le persone nel settore privato fossero riluttanti a rallentare lo sviluppo per garantire l’efficacia, poiché ciò avrebbe frenato il successo commerciale. Alla base di questa preoccupazione c’è il conflitto più ampio tra i valori e gli obiettivi degli enti pubblici e privati, che un altro partecipante ha dichiarato non sufficientemente riconosciuto. Hanno fornito l’esempio della mancanza di regolamentazione messa in atto a seguito della privatizzazione di aree sensibili come la sanità. Sono state raccomandate numerose strategie di ricerca per indagare sia l’equilibrio tra interessi commerciali e pubblici sia l’equilibrio tra interessi commerciali e individuali. Per quanto riguarda il primo, i partecipanti hanno suggerito che le differenze di prospettiva tra i dipartimenti IT del governo e gli appaltatori del settore privato dovrebbero essere esplorate attraverso l’analisi del contenuto dei documenti delle politiche di e-government e degli opuscoli e dei siti web dei fornitori. Ciò potrebbe aiutare a informare lo sviluppo di un modello degli obiettivi e dei valori degli attori pubblici e privati. Per quanto riguarda l’equilibrio tra interessi commerciali e diritti individuali, i partecipanti hanno raccomandato di esplorare gli atteggiamenti e le prospettive attuali nei confronti della governance e della regolamentazione algoritmica e di aumentare la consapevolezza della governance algoritmica. I partecipanti hanno identificato una serie di metodi di dati secondari che potrebbero far avanzare questa strategia di ricerca. Questi includevano studi di casi e metodi di ricerca di analisi legali ed economiche tradizionali. I partecipanti hanno anche identificato una serie di metodi di dati primari, tra cui consultazioni pubbliche, interviste, focus group e sondaggi. La strategia di ricerca finale raccomandata dai partecipanti in relazione a questa barriera è stata quella di esaminare gli effetti che una maggiore attenzione alla privacy potrebbe avere sulla legittimità e l’efficacia della governance algoritmica. I partecipanti hanno suggerito che la pratica della “privacy by design” fosse ricercata e potenzialmente seguita da una formazione di sensibilizzazione in contesti commerciali. I casi di studio del sovraccarico di dati potrebbero essere utilizzati anche per far luce sul fatto che più dati siano sempre migliori. Inoltre, i metodi dell’economia potrebbero stabilire se ci sono vantaggi per una raccolta di dati più esigente.

Governance efficace contro diritti individuali

I partecipanti hanno ritenuto che, nel considerare lo sviluppo di tecnologie di processo decisionale algoritmico, si debba prestare attenzione per garantire che si mantenga l’attenzione sui diritti individuali e sull’equo trattamento, piuttosto che esclusivamente su una governance efficace. Ad esempio, i partecipanti hanno suggerito di dare la priorità alla ricerca sui modi in cui la disuguaglianza e il bias possono essere incorporati negli algoritmi. Esiste già un certo numero di studi di casi che esaminano questo aspetto e si è ritenuto che fosse necessario intraprendere di più. I partecipanti hanno anche suggerito che una priorità chiave della ricerca fosse esaminare la concorrenza tra efficienza ed equità nella governance, esaminando l’opinione pubblica sulla loro concezione di governance efficace. Ciò potrebbe essere combinato con un’indagine su come la tecnologia può essere impiegata per migliorare la trasparenza del governo e la partecipazione dei cittadini. Questa strategia è stata suggerita in risposta alla percepita apatia nei confronti delle pratiche di governance partecipativa tra i leader politici. Un partecipante ha ritenuto che la ricerca sulle città intelligenti e il loro potenziale per consentire una governance partecipativa sarebbe un utile contributo a questo programma di ricerca. È stato anche suggerito il pilotaggio della tecnologia blockchain come meccanismo di governance alternativo come mezzo per aumentare la trasparenza e la partecipazione.

Consapevolezza etica (o mancanza di essa)

In relazione alla consapevolezza etica, i partecipanti hanno evidenziato una considerazione inadeguata delle preoccupazioni etiche con gli algoritmi e l’incapacità di integrare il pensiero sociale ed etico profondo nell’educazione tecnologica come barriere significative. Hanno anche evidenziato la mancanza di consapevolezza delle implicazioni etiche di algoritmi apparentemente neutri e l’incapacità di riconoscere le dimensioni etiche politiche dei Big Data. In risposta a queste barriere, i partecipanti hanno suggerito che sarebbe importante esaminare gli attuali livelli di consapevolezza e conoscenza delle questioni etiche nell’area della governance algoritmica tra programmatori, politici e pubblico.
Hanno evidenziato il valore delle analisi storiche e delle analisi dei casi studio per far luce su come la comprensione delle questioni etiche si sia sviluppata in domini analoghi (ad esempio lo sviluppo dell’etica medica nel campo della medicina) e su come l’analisi di casi specifici di governance algoritmica possa far luce questioni etiche chiave nel processo decisionale politico. I partecipanti hanno anche sottolineato l’importanza di analizzare direttamente le conseguenze etiche della governance algoritmica, ad esempio, in aree come la polizia predittiva e la profilazione, dove esiste il potenziale per perpetuare pregiudizi etnici e dinamiche sociali all’interno delle comunità. Collegato a questo è la necessità di un’analisi del linguaggio della politica e degli studi sui Big Data e di come l’etica si rifletta nel linguaggio dell’agenzia, della de-politicizzazione e dell’egemonia; e come i pregiudizi politici potrebbero riflettersi nelle decisioni sui Big Data. Anche le analisi dei quadri etici e dei codici di pratica esistenti utilizzati sia nell’educazione tecnologica che nelle applicazioni Big Data sono state considerate importanti, insieme a un’analisi delle pratiche decisionali etiche dei data scientist e della deliberazione etica dei politici. Da un punto di vista tecnologico, i partecipanti hanno proposto di analizzare la misura in cui lo sviluppo etico può essere incorporato nell’apprendimento automatico. I partecipanti hanno anche raccomandato alcuni obiettivi di ricerca applicata, come provare a scrivere una carta open source di etica algoritmica e indagare su come i comitati etici di ricerca gestiscono attualmente gli algoritmi.

Privacy e consenso informato

In relazione alla privacy e al consenso informato, i partecipanti hanno evidenziato inadeguate tutele della privacy, incapacità di proteggere adeguatamente i diritti umani, dissonanza tra sistemi algoritmici e quadri normativi/legislativi, conflitto tra interessi privati ​​e pubblici e incapacità di informare pienamente la cittadinanza del multiplo e una miriade di usi dei propri dati come barriere.
In risposta a queste barriere, i partecipanti hanno sottolineato l’importanza di esplorare la comprensione del pubblico del consenso informato, la loro conoscenza degli usi dei loro dati e degli usi degli algoritmi utilizzando sondaggi, interviste, studi di vignette e studi di laboratorio.
Hanno anche proposto studi di casi e studi di indagine progettati per esaminare l’atteggiamento del pubblico nei confronti della convenienza rispetto alla protezione dei diritti (cioè quanto sono disposte le persone a sacrificare i diritti alla privacy in cambio di servizi più economici ed efficaci?). Hanno evidenziato la necessità di rivedere la letteratura sulla privacy come definita dalla legge e la necessità di adottare studi interdisciplinari che confrontino gli standard di consenso in diversi campi giuridici.

La sfida dell’interdisciplinarità

Il panorama delle barriere interdipendenti delineato sopra, e la gamma e la portata della ricerca necessaria per comprendere e superare quelle barriere hanno evidenziato, a tutti i partecipanti, la necessità di una cooperazione interdisciplinare. Questa è stata percepita dai più come una sfida generica, presente in molti campi di ricerca interdisciplinari, ma che non dovrebbe essere ignorata. I partecipanti hanno notato una serie di problemi che possono avere un effetto negativo sui progressi in questo senso, tra cui il licenziamento di diverse prospettive nel campo, un continuo divario di conoscenze e la mancanza di prospettive condivise tra tecnologi e altri, che si traduce nella natura sottostimata di entrambi gli approcci alla governance algoritmica. I partecipanti hanno evidenziato una separazione tra esperti a livello di dominio e sviluppatori che ha portato a sistemi che non soddisfano i requisiti etici e legali. Hanno notato che la comunicazione inadeguata e la mancanza di un linguaggio e di una causa comune tra accademici, responsabili politici e attori del settore privato, e la mancanza di opportunità per un profondo impegno multidisciplinare, erano anche ostacoli a una governance algoritmica efficace e legittima. In risposta, i partecipanti hanno evidenziato il valore di sondaggi, interviste e studi etnografici che esplorano gli atteggiamenti concorrenti di tecnologi e scienziati sociali e il linguaggio utilizzato da diverse discipline per descrivere fenomeni simili. Hanno proposto una ricerca incentrata sulla natura della collaborazione di successo e l’analisi di casi di studio, documenti e interviste di progetti multidisciplinari esistenti e lo sviluppo collaborativo iterativo della comprensione. Hanno evidenziato la necessità di una revisione dei curricula disponibili e di interviste e sondaggi di studenti e professionisti dell’insegnamento per esaminare la forma di formazione intrapresa in diverse discipline e come le diverse pratiche educative possono perpetuare le difficoltà associate alla comunicazione interdisciplinare. I partecipanti hanno evidenziato il potenziale per teorizzare e stabilire un approccio comune al multiperspettivalismo utilizzando metodologie di scrittura collaborativa. Hanno anche proposto la creazione di nuove reti di ricercatori interdisciplinari che possono lavorare insieme per superare le sfide interdisciplinari e far progredire la comprensione di una governance algoritmica efficace e legittima.

Conclusione: mappatura dell’agenda di ricerca

Presentiamo la mappa completa delle barriere, delle domande di ricerca e dei metodi/strategie di ricerca che è stata prodotta attraverso il nostro workshop CI nella Tabella 2. Vogliamo concludere spiegando il contributo che riteniamo questa mappa dia alla letteratura esistente sulla governance algoritmica, evidenziando i limiti di ciò che abbiamo fatto e identificare modi in cui l’agenda di ricerca che abbiamo prodotto potrebbe essere sviluppata e migliorata in futuro.
Possiamo spiegare il contributo più facilmente confrontando ciò che il workshop ha prodotto con i framework esistenti di cui abbiamo discusso nella sezione “Contesto: comprensione della governance algoritmica”. Si consideri, ad esempio, i framework proposti da Zarsky (Figura 1) e Kitchin (Tabella 1). Quella di Zarsky era una tassonomia dei problemi che derivano dall’uso di sistemi di governance algoritmica. Questa tassonomia si concentrava su due principali categorie di problemi (efficienza ed equità) e li suddivideva in una serie di sottoproblemi. Le barriere identificate nel nostro seminario CI coprivano gran parte dello stesso territorio, con i partecipanti che hanno anche evidenziato preoccupazioni specifiche su inefficienze, pregiudizi, mancanza di trasparenza e ingiustizia nell’implementazione di questi sistemi. Ma i partecipanti sono andati ben oltre Zarsky, evidenziando come i problemi di efficienza e correttezza fossero collegati ad altri problemi nell’istruzione, comprensione pubblica, competenza tecnica, reclutamento, complessità istituzionale, lacune negli standard legali e altro ancora. Il risultato è una comprensione molto più ricca dello spazio problematico coinvolto in questo dibattito. Inoltre, i nostri partecipanti hanno collegato questi problemi a domande e metodologie di ricerca specifiche e quindi hanno identificato modi in cui potremmo comprendere meglio questi problemi e contribuire alla loro soluzione.

Qualcosa di simile è vero quando confrontiamo i risultati del nostro workshop con il quadro di ricerca proposto da Kitchin. Laddove ha evidenziato un obiettivo principale, tre sfide di ricerca e sei strategie di ricerca, i nostri partecipanti hanno identificato 12 barriere principali a una governance efficace e legittima e un’ulteriore sfida relativa allo studio multidisciplinare, almeno 48 domande di ricerca distinte e 65 applicazioni di ricerca. Di conseguenza, i risultati del nostro
laboratorio che si trova attualmente in letteratura. A dire il vero, i nostri partecipanti hanno identificato sfide e metodi simili a Kitchin, ma i loro sforzi collettivi hanno prodotto un’analisi più dettagliata delle sfide e una mappatura più completa della ricerca che deve essere fatta per affrontare ciascuna di queste sfide.
Inoltre, riteniamo che abbiano trovato alcuni metodi di ricerca nuovi e interessanti, incluso l’uso di video live streaming per studiare i programmatori mentre codificano, collaborando con organizzazioni di trasparenza politica per creare misure di trasparenza algoritmica, la costruzione di cartografie visive e l’uso della teoria della rete degli attori per comprendere meglio la complessità istituzionale e giuridica, tra molti altri metodi proposti.
Ovviamente ci sono dei limiti a ciò che abbiamo prodotto.
È importante che chiunque proponga di utilizzare la nostra agenda ne sia consapevole. Un limite evidente riguarda la rappresentatività del gruppo coinvolto. Il programma di ricerca che abbiamo sviluppato era il prodotto di un particolare gruppo di persone, che lavoravano insieme per un determinato periodo di tempo. Non c’è dubbio che in quello che abbiamo fatto mancavano prospettive importanti. Come accennato nella sezione “Contesto: comprensione della governance algoritmica”, i partecipanti sono stati invitati sulla base delle competenze e degli interessi accademici e tecnici. Solo uno dei 15 era attualmente impiegato nell’industria, i restanti 14 erano tutti attualmente impiegati in istituzioni accademiche. Alcuni di coloro che attualmente lavorano nel mondo accademico avevano una formazione nell’industria e nel governo, e questo era uno dei criteri di selezione, ma la loro attuale forma di impiego senza dubbio limitava la loro prospettiva sulla questione. Inoltre, sebbene ci sia stato qualche tentativo di raggiungere la diversità disciplinare e di genere, non sono state ricercate altre forme di rappresentatività. Come suggerisce l’attuale letteratura di ricerca e la nostra stessa agenda di ricerca, i sistemi di governance algoritmica possono incorporare alcune forme di pregiudizio e possono influenzare in modo sproporzionato i membri di gruppi minoritari (etnici, razziali, sessuali, legati alla disabilità, ecc.). Sebbene alcuni dei nostri partecipanti possano appartenere a tali gruppi, non li abbiamo selezionati per questo motivo e quindi l’assenza di un riconoscimento e di un impegno più espliciti con le prospettive delle minoranze significa che potrebbero esserci delle lacune in ciò che abbiamo prodotto. Difenderemmo l’appropriatezza dei nostri criteri di selezione accademici dato che il nostro scopo era quello di produrre un’agenda di ricerca che sarebbe stata utile ai ricercatori accademici, ma c’è sicuramente spazio per altri per ripetere l’esercizio con diversi gruppi e confrontare i risultati con quanto abbiamo prodotto.5
Oltre a ciò, il fatto che l’agenda di ricerca sia stata prodotta da un particolare gruppo in un determinato giorno significa che i nostri partecipanti avranno senza dubbio trascurato o ignorato altre possibili domande e metodi di ricerca. Occorre lavorare di più per aggiungere le prospettive mancanti e colmare le lacune, forse riconciliando e uniformando la nostra agenda con quelle già fornite. Una preoccupazione particolare a questo proposito, e una sollevata da molti dei revisori di questo articolo, è stata l’apparente assenza di prospettive più critiche/radicali sul tema della governance algoritmica dal nostro programma di ricerca. Vale la pena notare che tali prospettive non sono del tutto assenti da quanto è stato prodotto.

Le barriere originariamente identificate dai partecipanti consistevano in dichiarazioni/proposizioni, che abbiamo poi raggruppato e ridotto a semplici etichette descrittive (come “opacità”, “tecnopessimismo,” interessi pubblici contro privati ​​”e così via).
Molte di queste affermazioni6 – in particolare quelle relative al tecnotopismo, disuguaglianza contro diritti e interessi pubblici contro privati ​​- erano abbastanza esplicitamente radicali/critiche nel loro focus, sfidando l’attenzione politica liberale più mainstream adottata da altri. Queste dichiarazioni sono state esposte a tutti i partecipanti il ​​giorno del workshop sulle pareti della stanza in cui si è svolta la sessione. Inoltre, il workshop stesso si è svolto dopo una conferenza accademica più tradizionale composta da brevi presentazioni di articoli. Molti di questi documenti hanno adottato una prospettiva più radicale e critica sull’argomento e tali prospettive hanno continuato a essere discusse nella sessione del workshop stesso.7 Il programma di ricerca che abbiamo prodotto (vedi Tabella 2) può sembrare privo di queste prospettive, ma potremmo sostenere che non è necessariamente così. Abbiamo ridotto le discussioni e le conversazioni della giornata a una serie di domande e metodi di ricerca ragionevolmente concreti.
Vorremmo sostenere che molte di queste domande e metodi sono aperti a coloro che desiderano perseguire un programma di ricerca più radicale/critico. Detto questo, riconosciamo certamente che il modo in cui abbiamo strutturato il workshop (chiedendo ai partecipanti di concentrarsi sulle questioni di legittimità ed efficacia) aveva un orientamento liberale/politico mainstream. Abbiamo incoraggiato i partecipanti a non dare per scontata questa inquadratura nei loro contributi, ma ciò potrebbe aver influito sui risultati che abbiamo prodotto. Riconosciamo inoltre di aver cercato di facilitare il dialogo al workshop che rappresentava l’intera gamma di prospettive dei partecipanti, comprese quelle negative o critiche sulle possibilità di governance algoritmica.8
Nonostante queste limitazioni, vorremmo sostenere che sfruttando il potere dell’IC, abbiamo prodotto la mappatura più completa dell’agenda di ricerca fino ad oggi, qualcosa che i ricercatori possono iniziare a utilizzare e sviluppare proprio ora. Ma nessun programma di ricerca è mai completo e definitivo. Sono e dovrebbero essere oggetto di critica, cambiamento iterativo e sviluppo. Futuri workshop di CI di questo tipo potrebbero essere utilizzati per facilitare ulteriori collaborazioni interdisciplinari su questo importante argomento, forse cercando di rappresentare diversi gruppi nella conversazione e nella discussione. È probabile che ciò sia comunque reso necessario dalla natura fluida e in rapida evoluzione delle tecnologie alla base delle strutture di governance algoritmica. Tuttavia, riteniamo che la metodologia che abbiamo adottato per produrre questo programma di ricerca, e l’agenda che è stata effettivamente prodotta, forniscano una solida piattaforma su cui i futuri ricercatori possono costruire.

Tabella 2. Un programma di ricerca per la governance algoritmica

Ostacoli a una governance
algoritmica efficace e legittima
Potenziali domande di ricercaPotenziali applicazioni di ricerca
Opacità degli algoritmiCome vengono codificati gli algoritmi?
Possono essere decodificati?
Come vengono compresi dalle persone colpite?
Come vengono utilizzati nella governance?
In che modo influenzano le comunità pertinenti?
Possiamo misurare la trasparenza degli algoritmi?
Studia i programmatori mentre programmano in tempo reale utilizzando servizi di streaming video come periscope o hackathon.
Analisi forense di algoritmi (codice sorgente; pseudo-codice, ecc.)
Casi di studio etnografici di programmatori
Sondaggi, casi di studio, scienza dei cittadini, interviste e metodi qualitativi visivi per scoprire come le parti interessate comprendono questi sistemi.
Interviste, studi etnografici, analisi comparative e studi longitudinali di comunità interessate dalla governance algoritmica.
Sviluppare un indice di trasparenza algoritmica, collaborando con le organizzazioni che misurano la trasparenza politica
Tecno-utopismoQuanto è diffuso il tecno-utopismo?
Con quale frequenza vengono fatti appelli agli ideali tecno-utopici nei circoli politici?
Quali sono gli effetti a lungo termine del tecno-utopismo?
Quali sono i limiti e i pregiudizi che derivano dal tecno-utopismo?
Gruppi di discussione e studi osservazionali per mappare gli atteggiamenti attuali verso la tecnologia Analisi dei discorsi politici e rappresentazioni culturali delle tecnologie.
Analisi longitudinale del corpus per mappare i cambiamenti negli atteggiamenti emotivi nei confronti della tecnologia nel tempo.
Studi osservazionali e comparativi di programmatori, sviluppatori e agenzie governative competenti durante la progettazione e l’implementazione di sistemi di governance algoritmica.
Esercizi di sensibilizzazione del tecno-utopismo attraverso l’uso di videogiochi e fumetti.
Tecno-pessimismoPossiamo formare una comprensione comune del tecno-pessimismo?
Quando è giustificato il tecno-pessimismo?
In quali condizioni il tecno-pessimismo si concentra strettamente su una tecnologia o si concentra ampiamente sulla tecnologia in generale?
Quanto è diffuso il tecno-pessimismo?
Quali sono le cause del tecno-pessimismo?
Indagini empiriche (indagini. Interviste, esperimenti, ecc.) Di danni alle persone dovuti alla proliferazione di dispositivi mediati algoritmicamente.
Indagini su danni specifici derivanti da tecno-pessimismo come diffamazione e danno al credito.
Analisi di casi storici di periodi di tecno-pessimismo nella governance.
Indagini, esperimenti, interviste, studi osservazionali e focus group con regolatori e altre figure chiave coinvolte nella governance algoritmica al fine di determinare la prevalenza e le cause del tecno-pessimismo.
Incertezza tecnologicaLe persone comprendono i modi contingenti e incerti in cui si sviluppa la tecnologia?
Quali sono gli esempi storici di conseguenze non intenzionali derivanti dall’incertezza tecnologica? Possiamo imparare da questi esempi?
C’è una mancanza di comprensione e di interesse per lo sviluppo tecnologico da parte del pubblico e dei responsabili politici?
FOI richiede e analisi documentale su tutti i documenti relativi alla costruzione di un sistema di governance algoritmica al fine di esaminare come il sistema sia cambiato dallo sviluppo all’implementazione.
Interviste, focus group e studi etnografici di politici ed esperti tecnologici durante lo sviluppo dei sistemi.
Interviste, focus group, studi etnografici e progetti di sensibilizzazione al fine di tracciare la mancanza di comprensione e il divario tra conoscenza esperta e pubblica.
Capacità/conoscenza tra i tecnologiGli esperti tecnici non conoscono i sistemi legali e di governance con i quali interagiscono?
Gli esperti tecnici sono consapevoli dei propri pregiudizi impliciti e di come questi potrebbero influenzare il processo di codifica?
Gli esperti tecnici sono ostili agli estranei che non hanno la loro competenza tecnica?
Casi di studio, sondaggi e interviste diretti a:
– Valutare la consapevolezza generale del bias implicito
– Cultura interna e pensiero di gruppo tra le organizzazioni che costruiscono sistemi di governance algoritmica
– Comprensione e conoscenza dei sistemi di governance.
– Capire fino a che punto i programmatori cercano di difendersi
dal contenzioso nelle decisioni di codifica
Test e quiz di conoscenza giuridica e normativa.
Capacità tra funzionari e rappresentanti pubbliciCosa significano capacità e competenza nel contesto del servizio pubblico?
I politici e i funzionari pubblici capiscono come funzionano i sistemi di governance algoritmica?
Quali livelli di competenza sono necessari tra i decisori chiave quando si tratta di governance algoritmica?
Come sorgono e come vengono gestiti i problemi di competenza nel settore pubblico?
Qual è il rapporto tra il settore pubblico e quello privato?
Come vengono tenuti in conto gli attori quando qualcosa va storto?
Chi viene assunto nel servizio pubblico per occuparsi della governance algoritmica?
Focus group di lavoratori del servizio pubblico per raggruppare e perfezionare le definizioni di capacità e competenza.
Casi di studio storici sui problemi legati alla capacità nel servizio pubblico.
Interviste narrative e focus group per valutare i livelli di competenza necessari.
Studi comparativi di competenza e comprensione tra agenzie governative e lavoratori del settore privato.
Metodi della teoria della rete degli attori per mappare le relazioni tra individui e organizzazioni sociali.
Analisi comparativa e cross country delle destinazioni dei laureati.
Richieste di libertà di informazione combinate con studi di casi dettagliati di insuccessi/successi di competenza.
Capacità tra avvocati e sistemi legaliQuali problemi legali derivano dall’emergere di sistemi di governance algoritmica?
Le lacune normative si stanno aprendo a causa della governance algoritmica?
La formazione degli avvocati è adeguata per affrontare le sfide che emergono dalla governance algoritmica?
Casi di studio e revisioni della letteratura sui problemi emergenti nei contenziosi esistenti
Interviste con i principali attori legali, ad es. pubblici ministeri e regolatori.
Tribunali discutibili sperimentali per esplorare nuovi problemi e lacune che potrebbero sorgere.
Analizza il codice esistente e classifica gli errori che emergono a seconda che siano di natura tecnica o legale. Combina questo con interviste e analisi dei documenti.
Complessità istituzionale e giuridicaQuanto sono complessi i sistemi burocratici in sé?
Il livello di complessità aumenta a seguito di un maggiore utilizzo delle TIC all’interno dei sistemi burocratici?
Le leggi contribuiscono alla mancanza di trasparenza algoritmica?
Casi di studio storici di complessità burocratica
Cartografie visive per mappare le relazioni tra le diverse organizzazioni, combinate con il tracciamento dei processi e studi comparativi.
Studiare sistemi che già tracciano e raccolgono informazioni (ad es. Sistemi di regolamentazione ambientale) e conducono analisi dettagliate della risposta al cambiamento normativo.
Confronta l’uso di sistemi proprietari e open source nella gestione dei dati.
Condurre analisi del modello mentale delle principali parti interessate nei sistemi di regolamentazione per confrontare il modo in cui pensano che i sistemi ICT funzionino con il loro effettivo funzionamento.
Indagare i modi in cui i sistemi di governance algoritmica sono descritti e inquadrati nella giurisprudenza esistente in materia di privacy e protezione dei dati.
Scontro tra interessi commerciali e pubbliciC’è riluttanza a rallentare lo sviluppo tecnologico per garantire efficacia e legittimità?
C’è un mancato riconoscimento dello scontro di valori tra enti pubblici e privati, in particolare quando si creano sistemi di governance algoritmica?
Siamo/possiamo bilanciare interessi commerciali e diritti individuali?
Quali sono gli effetti commerciali/pubblici di una maggiore attenzione alla privacy?
Analisi del contenuto di documenti e opuscoli sulle politiche di e-government e siti Web di fornitori di servizi commerciali.
Casi di studio economici e legali di atteggiamenti e utilizzo di sistemi di governance algoritmica.
Analisi costi-benefici sui rischi/benefici di una maggiore raccolta dei dati.
Consultazione pubblica, interviste, focus group e sondaggi per esplorare gli atteggiamenti esistenti e la comprensione dei valori alla base dei sistemi di governance algoritmica.
Indagine empirica (interviste, etnografie, sondaggi) sulle pratiche di “privacy by design”.
Governance efficace contro diritti individualiViene perseguita una governance efficace a scapito della solidità e della correttezza individuali?
In che modo la disuguaglianza e il pregiudizio possono essere incorporati nella governance algoritmica?
In che modo la tecnologia può migliorare la trasparenza del governo e la partecipazione dei cittadini?
Analisi storiche e di casi di studio su come la comprensione di questioni etiche si sia sviluppata in domini analoghi (es. Etica medica)
Indagini, interviste e test di consapevolezza etica tra programmatori, politici e pubblico.
Studi empirici (esperimenti, indagini, etnografie) sulle conseguenze etiche della governance algoritmica, ad es. sistemi di polizia predittiva.
Analisi linguistica del linguaggio utilizzato nelle discussioni sui Big Data e sulla governance algoritmica.
Analisi forense dei codici di pratica esistenti nell’educazione tecnologica e nelle applicazioni Big Data.
Esame empirico delle pratiche decisionali etiche tra data scientist e politici.
Sviluppa modelli di machine learning in grado di incorporare l’apprendimento etico: misura la loro efficacia.
Scrivi una carta open source di etica algoritmica.
Privacy e consenso informatoCome interpreta il pubblico il consenso informato?
Il pubblico sa come vengono utilizzati i propri dati nei sistemi di governance algoritmica?
I protocolli sulla privacy e sul consenso informato sono efficaci nella protezione delle violazioni dei diritti umani?
Casi di studio, sondaggi e interviste sulla comprensione da parte del pubblico del consenso informato.
Casi di studio e sondaggi sull’atteggiamento del pubblico nei confronti della convenienza della tecnologia rispetto alla protezione dei diritti.
Revisioni della letteratura sulla tutela della privacy e del consenso informato per legge.
Analisi comparativa degli standard di consenso in diverse aree del diritto.
Strategie per affrontare la sfida
Case study, analisi di documenti e interviste di programmi di ricerca multidisiplinari esistenti.
Rivedi i programmi di studio e intervista e fai sondaggi agli studenti e agli insegnanti nelle discipline esistenti.
Metodologie di scrittura collaborativa per teorizzare un approccio comune alla ricerca multiperspettivale.
Stabilire nuove reti di ricercatori interdisciplinari.
Dichiarazione di conflitto di interessi

Uno degli autori (Behan) lavora per un’azienda (IBM) con un interesse commerciale per il tipo di tecnologia in discussione. Tuttavia, il suo contributo a questo articolo è strettamente personale.

Finanziamento

Gli autori desiderano riconoscere il finanziamento dell’Irish Research Council (New Horizons Grant) e del Whitaker Institute, NUI Galway, senza il cui supporto questo documento non sarebbe stato possibile.

Appunti
  1. Questa figura è stata creata dall’autore principale dell’articolo corrente e si basa sulla discussione in Zarsky (2016). È stato approvato da Zarsky in corrispondenza con l’autore principale.
  2. Questa tabella è stata creata dall’autore principale sulla base della discussione in Kitchin (2017). Non compare nel documento originale di Kitchin.
  3. Ci siamo concentrati sui concetti di “legittimità” ed “efficacia” per il fatto che (a) sembravano sufficientemente capienti per coprire una serie di preoccupazioni che si potrebbero avere su questa tecnologia, (b) erano simili ai concetti usati nella la letteratura preesistente sui problemi della governance algoritmica (ad esempio Danaher, 2016; Zarsky, 2016) e (c) erano ampiamente accettabili all’interno della teoria liberale-democratica tradizionale (Peter, 2017). Eravamo consapevoli, tuttavia, che concentrare l’indagine su questi due concetti potrebbe influenzare / restringere i risultati del nostro studio poiché si può ritenere che escludano prospettive teoriche più radicali e critiche sulla governance algoritmica. Per superare questo problema abbiamo incoraggiato i partecipanti al nostro workshop a sentirsi liberi di mettere in discussione la struttura concettuale che abbiamo utilizzato. Nella sezione conclusiva riflettiamo sui nostri successi e fallimenti a questo riguardo.
  4. Le metodologie del lavoro di gruppo hanno i loro problemi. Ad esempio, i diversi processi utilizzati da un gruppo per generare, criticare e perfezionare un insieme di idee possono portare a un pensiero eccessivamente convergente e dipendere eccessivamente dalla conoscenza comune (e quindi non dalla conoscenza fornita dalle prospettive individuali uniche che sono presenti nel gruppo). Eravamo consapevoli di questi problemi nella progettazione del nostro workshop e delle tecniche di IM che abbiamo utilizzato (NGT, idea-scrittura, rappresentazioni sul campo) sono stati progettati per superare alcune delle insidie ​​comuni del lavoro di gruppo. Per una discussione più lunga dei problemi con il lavoro di gruppo e delle tecniche che possono essere utilizzate per affrontarli, consigliamo al lettore di consultare alcuni dei lavori precedentemente pubblicati del secondo autore (Hogan et al., 2014, 2015a), così come discussione esauriente in Straus et al. (2009).
  5. Come ha sottolineato uno dei nostri revisori, ci sono problemi anche all’interno del mondo accademico riguardo alla rappresentatività del nostro gruppo. Dopotutto, non tutti hanno il tempo di viaggiare per assistere e partecipare a un seminario di questo tipo. Abbiamo cercato di mitigare questo fenomeno in una certa misura assicurandoci che l’evento si sia svolto al di fuori dell’orario di insegnamento (per i partecipanti irlandesi) e durante la giornata lavorativa ordinaria.
    Poco più di un terzo dei partecipanti aveva sede a livello locale (ovvero partecipava a un evento che si svolgeva nella loro normale sede di lavoro), quindi non avrebbero dovuto affrontare maggiori difficoltà a partecipare rispetto a quelle che normalmente avrebbero dovuto affrontare durante il lavoro. Per coloro che viaggiano da altre istituzioni, le difficoltà nel prendersi del tempo per partecipare sarebbero certamente un problema maggiore ed è stata la ragione dichiarata della maggior parte degli inviti respinti.
  6. Queste dichiarazioni sono in archivio con gli autori.
  7. Circa la metà degli articoli è stata pubblicata in forma abbreviata nell’edizione di settembre/ottobre 2016 della rivista Computers and Law. La prospettiva più radicale/critica è mostrata in almeno uno di questi articoli pubblicati: Morison ‘Algorithmic Governmentality:
    Techno-Optimism and the Move to the Dark Side “- disponibile su https://www.scl.org/articles/3714-algorithmic-governmentality-techo-optimism-and-the-move-towards-the-dark-side
  8. Un altro problema, come ha sottolineato uno dei revisori dell’articolo, ha a che fare con la natura “algoritmica” del metodo dell’intelligenza collettiva. Potrebbe sembrare ironico e strano che abbiamo utilizzato un metodo quasi algoritmico per produrre un programma di ricerca sulla governance algoritmica. Apprezziamo questa ironia. Ma pensiamo che ci siano interpretazioni ampie (qualsiasi processo che segue le regole) e ristrette (un sistema automatizzato e automatizzato che segue le regole) di cosa significhi per qualcosa essere “algoritmico”. Il nostro metodo di ricerca era algoritmico in senso lato, ma non siamo sicuri che sia algoritmico in senso stretto e il senso stretto è quello coperto dall’agenda di ricerca proposta. Tuttavia, c’è un’interessante domanda di ricerca “meta” da porre sul metodo e se esso aggrava o allevia le preoccupazioni sulla governance algoritmica (in senso stretto).
References

Alberts H (1992, March) Acquisition: Past, present and future. Paper at the meeting of the Institute of Management Sciences and Operations Research Society, Orlando, FL. Aneesh A (2006) Virtual Migration. Durham, NC: Duke University Press.
Aneesh A (2009) Global labor: algocratic modes of organization. Sociological Theory 27(4): 347–370. https://www.asanet.org/sites/default/files/savvy/images/journals/docs/pdf/st/Dec09STFeature.pdf
Ashby WR (1958) Requisite variety and its implications for the control of complex systems. Cybernetica 1(2): 1–17. http://pcp.vub.ac.be/books/AshbyReqVar.pdf
Boulding KE (1966) The Impact of the Social Sciences. New Brunswick, NJ: Rutgers University Press. https://www.commentarymagazine.com/articles/werner-dannhauser-2/the-impact-of-the-social-sciences-by-kenneth-e-boulding/
Broome BJ (1995) Collective design of the future: Structural analysis of tribal vision statements. American Indian Quarterly 19: 205–228. http://cyprusreview.org/index.php/cr/article/view/490/438
Broome BJ and Chen M (1992) Guidelines for computerassisted group problem-solving: Meeting the challenges of complex issues. Small Group Research 23(2): 216–236.
Broome BJ and Fulbright L (1995) A multi-stage influence model of barriers to group problem solving. Small Group Research 26: 25–55. https://asu.pure.elsevier.com/en/publications/a-multistage-influence-model-of-barriers-to-group-problem-solving
Burrell J (2016) How the machine thinks: Understanding opacity in machine learning systems. Big Data and Society.
Epub ahead of print 2016. DOI: 10.1177/2053951715622512.
Available at: https://www.researchgate.net/publication/289555278_How_the_machine_’thinks_Understanding_opacity_in_machine_learning_algorithms
Carr N (2015) The Glass Cage: Where Automation is Taking Us. London: The Bodley Head. https://www.biblio.com/9781847923080
Christakis AN (1987) Systems profile: The Club of Rome revisited. Systems Research 4: 53–58.
Citron D and Pasquale F (2014) The scored society: Due process for automated predictions. Washington Law Review 86: 101. https://digitalcommons.law.uw.edu/cgi/viewcontent.cgi?article=4796&context=wlr
Coke JG and Moore CM (1981) Coping with a budgetary crisis: Helping a city council decide where expenditure cuts should be made. In: Building City Council Leadership Skills: A Casebook of Models and Methods, Washington, DC: National League of Cities, pp. 72–85. https://www.researchgate.net/publication/319934614_Algorithmic_governance_Developing_a_research_agenda_through_the_power_of_collective_intelligence
Cormen T (2013) Algorithms Unlocked. Cambridge, MA: MIT Press. http://dahlan.unimal.ac.id/files/ebooks/2013%20Algorithms_Unlocked.pdf
Cormen T, Leiserson CE, Rivest RL, et al. (2009) Introduction to Algorithms, 3rd ed. Cambridge, MA: MIT Press. https://cdn.manesht.ir/19908___Introduction%20to%20Algorithms.pdf
Crawford K (2013) The hidden biases of Big Data. Harvard Business Review. Epub ahead of print 1 April 2013.
Available at: https://hbr.org/2013/04/the-hidden-biases-in-big-data (accessed 1 September 2017).
Danaher J (2016) The threat of algocracy: Reality, resistance and accommodation. Philosophy and Technology 29(3): 245–268.
https://www.researchgate.net/publication/291015337_The_Threat_of_Algocracy_Reality_Resistance_and_Accommodation
Domingos P (2015) The Master Algorithm: How the Quest for Ultimate Machine Learning will Remake Our World. New York, NY: Basic Books. https://www.goodreads.com/book/show/24612233-the-master-algorithm
Dwyer CP, Hogan MJ, Harney OM, et al. (2014) Using interactive management to facilitate a student-centred conceptualisation of critical thinking: A case study. Educational Technology Research and Development 62(6): 687–709.
Feeg R (1988) Forum of the future of pediatric nursing: Looking toward the 21st century. Pediatric Nursing 14: 393–396. https://www.ncbi.nlm.nih.gov/pubmed/3186307
Gillespie T and Seaver N (2016) Critical algorithm studies: A reading list. Available at: https://socialmediacollective.org/reading-lists/critical-algorithm-studies/ (accessed 1 September 2017).
Greengard S (2015) The Internet of Things. Cambridge, MA: MIT Press. https://mitpress.mit.edu/books/internet-things-revised-and-updated-edition
Groarke JM and Hogan MJ (2015) Enhancing wellbeing: An emerging model of the adaptive functions of music listening. Psychology of Music 44(4): 769–791. Hacking I https://journals.sagepub.com/doi/10.1177/0305735615591844
(2006) The Emergence of Probability, 2nd ed. Cambridge, MA: Cambridge University Press. https://www.cambridge.org/US/academic/subjects/philosophy/philosophy-science/emergence-probability-philosophical-study-early-ideas-about-probability-induction-and-statistical-inference-2nd-edition?format=PB&isbn=9780521685573
Hogan MJ, Harney O and Broome B (2014) Integrating argument mapping with systems thinking tools – Advancing applied systems science.
In: Okada A, Buckingham Shum S and Sherborne T (eds) Knowledge Cartography: Software Tools and Mapping Techniques. London: Springer. https://link.springer.com/chapter/10.1007/978-1-4471-6470-8_18
Hogan MJ, Harney O and Broome B (2015a) Catalyzing collaborative learning and collective action for positive social change through systems science education. In: Wegerif R, Kaufman J and Li L (eds) The Routledge Handbook of Research on Teaching Thinking. London: Routledge. https://www.researchgate.net/publication/279204027_Catalyzing_Collaborative_Learning_and_Collective_Action_for_Positive_Social_Change_through_Systems_Science_Education
Hogan MJ, Johnston H, Broome B, et al. (2015b) Consulting with citizens in the design of wellbeing measures and policies: lessons from a systems science application. Social Indicators Research 123: 857–887. https://michaelhoganpsychology.files.wordpress.com/2015/06/consulting-with-citizens.pdf
Kanter RM (1991) The future of bureaucracy and hierarchy in organizational theory. In: Bourdieu P and Coleman J (eds) Social Theory for a Changing Society. Boulder, CO: Westview. https://www.taylorfrancis.com/chapters/edit/10.4324/9780429306440-3/future-bureaucracy-hierarchy-organizational-theory-report-field-rosabeth-moss-kanter
Keever DB (1989, April) Cultural complexities in the participative design of a computer-based organization information system. Paper presented at the International Conference on Support, Society and Culture: Mutual Uses of Cybernetics and Science, Amsterdam, The Netherlands.
Kellermeit D and Obodovski D (2013) The Silent Intelligence: The Internet of Things. DND Ventures LLC. http://www.silentintelligence.com/
Kitchin R (2014) The Data Revolution: Big Data, Open Data, Data Infrastructures and their Consequences. London: Sage. https://www.researchgate.net/publication/307894195_The_Data_Revolution_Big_Data_Open_Data_Data_Infrastructures_and_Their_Consequences_by_Rob_Kitchin_2014_Thousand_Oaks_California_Sage_Publications_222xvii_ISBN_978-1446287484_100
Kitchin R (2017) Thinking critically about and researching algorithms. Information, Communication and Society 20(1): 14–29. http://futuredata.stanford.edu/classes/cs345s/handouts/kitchin.pdf
Kitchin R and McArdle G (2016) What makes Big Data, Big Data? Exploring the ontological characteristics of 26 data-sets. Big Data and Society. Epub ahead of print 2016. DOI: 10.1177/2053951716631130. Available at: https://kitchin.org/wp-content/uploads/2019/04/BDS-2016-what-makes-big-data-big-data.pdf (accessed 1 September 2017).
Kraemer F, van Overveld K and Peterson M (2011) Is there an ethics of algorithms? Ethics and Information Technology 13(3): 251–260. https://pure.tue.nl/ws/files/3589090/605170089298249.pdf
Laney D (2001) 3D data management: Controlling data volume, velocity and variety. Gartner. https://www.bibsonomy.org/bibtex/742811cb00b303261f79a98e9b80bf49
Mayer-Schonberger V and Cukier K (2013) Big data: a revolution that will transform how we live work and think. London: John Murray. https://www.goodreads.com/book/show/15815598-big-data
Medina E (2011) Cybernetic Revolutionaries: Technology and Politics in Allende’s Chile. Cambridge, MA: MIT Press. https://uberty.org/wp-content/uploads/2015/10/Eden_Medina_Cybernetic_Revolutionaries.pdf
Miller GA (1956) The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychology Review 63: 81–97. http://www2.psych.utoronto.ca/users/peterson/psy430s2001/Miller%20GA%20Magical%20Seven%20Psych%20Review%201955.pdf
Mittelstadt B and Floridi L (2016) The ethics of Big Data: Current and foreseeable issues in biomedical contexts. Science and Engineering Ethics 22(2): 303–341. https://www.researchgate.net/publication/305813620_The_Ethics_of_Big_Data_Current_and_Foreseeable_Issues_in_Biomedical_Contexts
Morozov E (2014) The planning machine: Project cybersyn and the origins of the Big Data nation. The New Yorker. Available at: http://www.newyorker.com/magazine/2014/10/13/planning-machine (accessed 15 June 2017).
O’Neil C (2016) Weapons of Math Destruction. New York: Crown Publishers. http://weaponsofmathdestruction.com/
Pasquale F (2015) The Black Box Society. Cambridge, MA: Harvard University Press. https://www.goodreads.com/book/show/21878126-the-black-box-society
Paulus PB and HC Yang (2000) Idea Generation in Groups: A basis for creativity in organizations. Organizational behavior and human decision processes 82(1): 76–87. https://www.uta.edu/cos/paulus/pub/paulus%20and%20yang.pdf
Peter F (2017) Political legitimacy. In: Zalta EM (ed.) Stanford Encyclopedia of Philosophy. Available at: https://plato.stanford.edu/entries/legitimacy/ (accessed 15 June 2017).
Polonetsky J and Tene O (2013) Privacy and Big Data: Making ends meet. Stanford Law Review 66: 25–33. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2628412
Rezaei Zadeh M, Hogan M, O’Reilly J, et al. (2016) Core entrepreneurial competencies and their interdependencies: Insights from a study of Irish and Iranian entrepreneurs, university students and academics. International Entrepreneurship and Management Journal 13(1): 1–39. https://core.ac.uk/download/pdf/41075307.pdf
Sato T (1979) Determination of hierarchical networks of instructional units using the ISM method. Educational Technology Research 3: 67–75. http://www.jimwrightonline.com/mixed_files/lansing_IL/_Lansing_IL_Aug_2013/5_instructional_hierarchy_revised.pdf
Straus S, Parker A, Bruce J, et al. (2009) Group matters: A review of the effects of group interaction processes and outcomes in analytic teams. RAND Working Paper. Available at: http://www.rand.org/content/dam/rand/pubs/working_papers/2009/RAND_WR580.pdf (accessed 15 June 2017).
Warfield JN (1976) Societal Systems: Planning, Policy, and Complexity. New York, NY: Wiley. https://books.google.it/books/about/Societal_systems.html?id=cX9RAAAAMAAJ&redir_esc=y
Warfield JN and Cardenas AR (1994) A Handbook of Interactive Management, 2nd ed. Ames: Iowa State University Press. https://demosophia.com/wp-content/uploads/HIM_01.pdf
Weber M (1947) The Theory of Social and Economic Organzation. New York, NY: The Free Press. https://www.goodreads.com/book/show/136025.The_Theory_of_Social_and_Economic_Organization
Zarsky T (2012) Automated predictions: perception, law and policy. Communications of the ACM 15(9): 33–35. https://cacm.acm.org/magazines/2012/9/154568-automated-prediction-perception-law-and-policy/fulltext
Zarsky T (2013) Transparent prediction. University of Illinois Law Review 4: 1504. https://www.illinoislawreview.org/wp-content/ilr-content/articles/2013/4/Zarsky.pdf
Zarsky T (2016) The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision making. Science, Technology and Human Values 41(1): 118–132. https://www.jstor.org/stable/43671285?seq=1

Fonte

https://journals.sagepub.com/doi/epub/10.1177/2053951717726554

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: