Intelligenza Artificiale e il futuro della guerra

Sommario

  •  Entrambi i robot militari e commerciali in futuro incorporeranno l’intelligenza artificiale (AI) che potrebbe renderli capaci di svolgere compiti e missioni da soli. Nel contesto militare, dovrebbe essere possibile consentire l’esecuzione di tali missioni, specialmente se esiste la possibilità che una vita umana possa essere messa a rischio.
  •   Per comprendere le problematiche in gioco, questo documento presenta una struttura che illustra lo stato dell’arte attuale per l’intelligenza artificiale, i punti di forza e di debolezza della tecnologia e cosa riserva il futuro. Il framework dimostra che computer e sistemi possono essere utilizzati nel contesto.
  •  Nella complessa discussione sullo sviluppo e lo sviluppo di armi autonome, dovrebbero essere considerati i mercati in via di sviluppo. Potrebbe essere possibile utilizzare la tecnologia nel settore commerciale. Questo è un problema nella sfera commerciale dello sviluppo di sistemi autonomi, e questo spostamento nello sforzo e nelle spese di R & S. Lo sviluppo di sistemi autonomi militari è stato rallentato e incrementale nel migliore dei casi, e in confronto con i progressi fatti nei sistemi autonomi commerciali come i droni, e specialmente nelle auto senza conducente.
  •   In un mercato aspramente competitivo per robotica tecnici altamente qualificati e attraverso i settori correlati più interessati in AI, aerospaziale e della difesa, in cui il finanziamento è di gran lunga outmatched da quella del commercio di oro, automobilistico, dell’informazione e della comunicazione, è meno attraente per il personale più affidabile. Di conseguenza, l’industria della difesa globale sta cadendo dietro le sue controparti commerciali in termini di innovazione tecnologica, con il divario che si sta allargando solo quando i migliori e più brillanti ingegneri si trasferiscono nella sfera commerciale.
  •   Per quanto riguarda il futuro della guerra, è legato all’IA, l’attuale ampia disparità nella spesa commerciale in R & S nei confronti di sistemi autonomi potrebbe avere un effetto a cascata sui tipi e sulla qualità di essere eventualmente incorporati nei sistemi militari. Una questione critica a questo riguardo è che avranno la capacità di sviluppare e testare sistemi autonomi sicuri e controllabili, specialmente quelli che sparano armi.
  •  Il ricorso a tecnologie nascenti senza test esaustivi potrebbe comportare rischi indebiti sia per il personale militare che per i civili. Tuttavia, lo sviluppo di sistemi commerciali autonomi potrebbe essere più probabile che abbia successo rispetto all’attuale stato dell’arte.

Introduzione

L’aumento nell’uso di veicoli aerei senza equipaggio (UAV) – noti come droni – in ambito militare e commerciale Future of Life Institute, 2015, Human Rights Watch, 2013, Human Rights Watch e International Human Rights Clinic, 2016).
Tali robot, che potrebbero essere nell’aria, a terra o nell’acqua, incorporano teoricamente “intelligenza artificiale” (IA) che li renderebbe capaci di eseguire le missioni da soli. Il dibattito, che ha molte dimensioni e parti interessate, se debbano o meno essere autorizzati a svolgere tali missioni militari, specialmente se esiste la possibilità che qualsiasi vita umana possa essere in gioco.

Data la complessità della questione, è necessaria una definizione operativa dell’IA. Non esiste una definizione concordata, anche tra gli scienziati e gli ingegneri informatici, una definizione generale scopo di AI è la capacità di un sistema informatico per eseguire le attività che normalmente richiedono l’intelligenza umana, quali la percezione visiva, il riconoscimento vocale e il processo decisionale. Questa definizione, tuttavia, è intrinsecamente semplificata, poiché anche il comportamento intelligente è aperto al dibattito.
Probabilmente, con questa definizione un termostato di casa è intelligente perché può percepire e regolare la temperatura. Questo è sostanzialmente diverso dall’ambito degli UAV, che è il più importante dei due.

Un altro fattore critico nel dibattito sulle armi autonome è la crescente incapacità di disambiguare l’autonomia dei droni commerciali da quella degli UAV militari. In effetti, ci sono prove di alcuni cambiamenti nelle competenze di IA da militari a imprese commerciali. Di conseguenza, potrebbe essere possibile che la tecnologia utilizzata nel settore commerciale possa essere disponibile. Inoltre, lo sviluppo asimmetrico del sistema commerciale autonomo potrebbe comportare una mancanza di competenza dei governi e delle forze armate, che potrebbe portare a sistemi autonomi compromessi e non sicuri, sia pienamente che semi-autonomi.

Questo documento presenta una struttura che spiega lo stato attuale dell’arte per l’intelligenza artificiale, i punti di forza e di debolezza dell’intelligenza artificiale e cosa riserva il futuro. Mentre il progresso dell’AI è inestricabilmente legato alla competenza degli ingegneri che sviluppano questi sistemi, viene allora fatto il caso che il passaggio delle competenze dal settore militare a quello commerciale complicherà ulteriormente le discussioni sull’arma autonoma, e renderà difficile per i governi di distribuire e gestire questi sistemi.


Come pensano i robot

Per comprendere meglio le sfumature dell’IA, è importante capire la differenza tra un sistema automatizzato e un sistema autonomo. Un sistema automatizzato è uno in cui una regola è basata su una chiara struttura if-then-else, basata su regole, e lo fa in modo deterministico, il che significa che per ogni input l’output del sistema sarà sempre lo stesso (eccetto se qualcosa fallisce). Un sistema autonomo è quello che ha dato probabilisticamente una serie di input, il che significa che fa ipotesi sulle migliori azioni possibili. A differenza dei sistemi automatici, quando vengono forniti gli stessi sistemi autonomi di input non necessariamente produce sempre lo stesso identico comportamento; piuttosto, tali sistemi produrranno una serie di comportamenti.

L’intelligenza umana è un ciclo di elaborazione delle informazioni cognitive-azione, in cui gli individui percepiscono qualcosa nel mondo che li circonda, pensano a cosa fare e poi, hanno valutato le opzioni, prendono una decisione atto. Le seguenti sono alcune delle cose più importanti al mondo, che sono legate al mondo della tecnologia dell’informazione. La Figura 1 illustra come un sistema autonomo è incorporato in un “pensiero” e prende le decisioni in questo modo.

Figura 1: come funziona l’intelligenza artificiale di un sistema autonomo

Anche se ci sono molti paralleli tra intelligenza umana e intelligenza artificiale, ci sono anche forti differenze.

Ogni sistema autonomo che interagisce in un ambiente dinamico (vedi Figura 1). Ciò significa che il mondo deve essere percepito (e percepito da microfoni e/o sensori tattili) e quindi ricostruito in modo tale che il “cervello” del computer abbia un modello efficace e aggiornato del mondo. decisioni. La fedeltà del modello mondiale e la tempestività dei suoi aggiornamenti sono le chiavi per un sistema autonomo efficace.
La navigazione UAV autonoma, ad esempio, è relativamente semplice, poiché il modello mondiale in base al quale opera preferenzialmente mappe che indicano percorsi preferiti, ostacoli di altezza e zone di non volo. I radar aumentano questo modello in tempo reale indicando quali altitudini sono libere da ostacoli. Le coordinate GPS trasmesse all’OV dove deve andare, con l’obiettivo generale del piano di coordinate GPS di essere parte di una no-fly zone o farla scontrare con un ostacolo.

In confronto, la navigazione per i conducenti è molto più difficile. Le auto non hanno solo bisogno di capacità di mappatura simili, ma devono essere comprese laddove ci sono pedoni e ciclisti e dove si trovano. Le auto senza guidatore (e alcuni droni) hanno una combinazione di LIDAR (rilevamento della luce e distanza), di radar tradizionali e visione computerizzata stereoscopica (vedere la Figura 1). Quindi il modello mondiale di un driver è molto più avanzato di quello di un UAV tipico, che riflette la complessità dell’ambiente operativo.

È necessario un computer senza conducente per tracciare tutte le dinamiche di tutti i veicoli e gli ostacoli vicini, calcolare costantemente tutti i possibili punti di intersezione e quindi stimare come sarà in grado di prendere una decisione per agire.

In effetti, questa forma di stimare o indovinare quali altri driver sarebbero una componente chiave di come gli esseri umani guidano, ma gli esseri umani fanno questo con poco sforzo cognitivo. Ci vuole un notevole potere di calcolo del computer per tenere traccia di tutte queste variabili mentre si cerca anche di mantenere e aggiornare il suo attuale modello mondiale. Dato questo enorme problema di calcolo, al fine di mantenere tempi di esecuzione sicuri per l’azione senza conducente. In effetti, quindi, l’ipotesi su quale percorso o azione è la migliore, data una sorta di intervallo di confidenza. Le migliori condizioni operative per i sistemi autonomi sono quelle che promuovono un modello mondiale ad alta fedeltà con bassa incertezza ambientale, un concetto che sarà ulteriormente discusso nella prossima sezione.

Bilanciare i compiti tra umani e robot

Data questa comprensione delle basi del ragionamento autonomo del robot, come dovremmo pensare alla progettazione di sistemi autonomi, in particolare in quale misura a cui gli esseri umani dovrebbero essere coinvolti? È importante capire quando i sistemi possono essere controllati dagli esseri umani. Questo documento è un’anteprima rilasciata dalla Commissione con la richiesta di una decisione tecnica pertinente (un essere umano). Questo documento presenta una comprensione della costruzione e delle capacità di tali sistemi.

La figura 2 illustra le fasi del ragionamento che sfruttano al meglio gli scenari decisionali, compresi quelli delle operazioni di armi autonome. Questa è un’estensione della tassonomia di Rasmussen (abilità, regole e comportamenti basati sulla conoscenza) (Rasmussen, 1983), modificata per rappresentare esplicitamente competenza e incertezza.

I comportamenti basati sulle abilità sono azioni sensoriali-motorie che per gli umani diventano altamente automatiche dopo un certo periodo di allenamento. Tali abilità si basano su un accoppiamento stretto del ciclo percezione-cognizione-azione, che in pratica significa che le azioni devono tipicamente rientrare in uno stimolo. Un esempio di un’attività basata sulle competenze sta volando su un aereo. Nell’addestramento, i piloti umani passano il grosso del loro tempo imparando ad interpretare quadranti e manometri e gli agenti automatici fanno questo, attraverso un loop di feedback basato su equazioni che sono correlati alla qualità dei dati di input dai sensori che dovrebbero essere.

Mentre il continuum cognitivo aumenta di complessità (rappresentato dalla freccia nella Figura 2), sorge la necessità di un comportamento basato su regole. I comportamenti basati su regole sono quelle azioni che possono essere rappresentate da subroutine, regole o procedure memorizzate. Gli elenchi di controllo sono strumenti di aiuto cognitivo comuni per le regole di esecuzione umana. Per continuare con l’esempio dell’aviazione, i piloti si affidano molto alle procedure per aiutare a gestire la complessità delle varie attività. Ad esempio, quando una luce si illumina o un altro sottosistema indica un problema, i piloti sono addestrati a stabilizzare prima l’aeromobile (una competenza), ma poi si rivolgono al manuale per determinare la procedura corretta (regola successiva). Tali procedure codificate sono necessarie perché sono troppe le soluzioni a possibili problemi da ricordare. Alcuni aspetti delle procedure sono richiesti in molti casi, specialmente nel contesto dell’incertezza, e sono particolarmente comuni in molti casi.

Il ragionamento basato sulla conoscenza è una situazione in cui la situazione non può essere evitata e per la risoluzione potrebbero essere necessarie simulazioni mentali veloci. I modelli mentali – rappresentazioni cognitive del mondo – sono costruiti nel tempo e nella formulazione di piani, in particolare di fronte all’incertezza. La cosiddetta ‘Miracolo sull’Hudson’, lo sbarco di US Airways volo 1549 sul fiume Hudson nel 2009, è un esempio di un comportamento basata sulla conoscenza illustrato nella figura 2 durante un’emergenza, il capitano del volo doveva decidere se atterrare all’aeroporto o no. Questo è lo scenario quintessenziale basato sulla conoscenza, che riflette un alto grado di incertezza che richiede al capitano di sviluppare un modello mentale dell’ambiente e dello stato dell’aeromobile. La risultante simulazione mentale veloce significa che la cosa con l’opzione di ammaraggio, con chiaro successo, non è stata ancora stabilita.

I comportamenti degli esperti si collocano in cima ai comportamenti di ragionamento, che si basano sul ragionamento basato sulla conoscenza. La competenza sfrutta il giudizio e l’intuizione, specialmente in un ambiente critico come il rilascio di armi. Gli esperti in genere prendono decisioni difficili in modo parsimonioso, dal momento che sono tutte possibili alternative di piano che richiedono molto tempo, in particolare di fronte all’incertezza (Gigerenzer, Todd e ABC Research Group, 1999). Negli esseri umani, la capacità di far fronte alle più alte situazioni di incertezza è uno dei tratti distintivi di un vero esperto, ma a confronto tale comportamento è molto difficile da replicare per i computer.

Come illustrato nella Figura 2, sono più facili da automatizzare, poiché sono per definizione altamente ripetitivi con circuiti di feedback intrinseci che possono essere controllati da rappresentazioni matematiche. Un presupposto fondamentale, tuttavia, è che i sensori appropriati siano a posto.

Data la struttura “if-then-else” dei comportamenti basati su regole, questi sono anche potenziali candidati all’automazione. Tuttavia, come mostrato nella Figura 2, la regola del ragionamento conduce al ragionamento basato sulla conoscenza, che richiede una gestione efficace dell’incertezza e delle vere competenze.
La navigazione, per esempio, è basata su regole, in quanto dato uno stato obiettivo (la destinazione), il percorso migliore può essere definito in modo oggettivo date le regole del flusso del traffico e la conoscenza della dinamica del veicolo. Tuttavia, l’incertezza in un tale ambito può rendere difficile l’introduzione dell’autonomia. Come già notato, la navigazione per i droni è relativamente semplice, dal momento che le capacità di sensori maturi e un ambiente a ostacoli a bassa densità, significano che l’incertezza è bassa. Nello scenario di guida automobilistica, al contrario, l’incertezza è molto più elevata perché sono nell’aria, e il potenziale ostacolo è chiaramente più denso.

È al livello di ragionamento basato su regole in cui il passaggio tra comportamento automatizzato e automatizzato comincia a diventare evidente. Alcuni ragionamenti di livello superiore iniziano qui, ma l’incertezza inizia anche a crescere, specialmente in presenza di una serie di regole incomplete. Ad esempio, gli UAV militari Global Hawk lavorano in uno stato dell’arte, sono in grado di comunicare tra loro. Quest’ultimo richiederebbe un livello più alto di ragionamento.

Le forme più avanzate di cognizione nel campo del comportamento cognitivo sono mostrate nelle figure 2 e 4, rispettivamente. possibili razze di azione. In caso di elevata incertezza, tuttavia, è spesso difficile capire quale serie di regole si applica. È in questi scenari incerti – che sono per definizione vaghi e ambigui – che gli algoritmi potrebbero non essere in grado di comprendere la soluzione spaziale, tanto meno di ottenere una soluzione fattibile.

La domanda chiave per qualsiasi lavoratore autonomo in un compito critico per la sicurezza (come il rilascio di armi) è che può risolvere ambiguità al fine di ottenere risultati accettabili. È concepibile che un drone autonomo possa avere la missione di colpire un bersaglio statico con un’alta probabilità di successo. In effetti, molti paesi hanno missili che possono fare proprio questo. Tuttavia, potrebbe esserci un individuo che sa come farlo accadere? Attualmente, la risposta a questa domanda è no.

Il potere dell’induzione umana – cioè la capacità di formare regole generali.

Per gli umani, l’induzione è necessaria per combattere l’incertezza. algoritmi informatici – in particolare quelli che sono basati sui dati, come gli algoritmi tipici che rientrano nella categoria di AI – sono intrinsecamente fragili, qui significa il clustering che tali algoritmi non si può generalizzare e possono prendere in considerazione solo l’approvazione di variabili quantificabili nelle prime fasi del tirocinio di progettazione, quando gli algoritmi sono originariamente codificati (Smith, McCoy and Layton, 1997). Replicare il concetto intangibile di intuizione, ragionamento basato sulla conoscenza e vera competenza è, per ora, al di là del regno dei computer. Attualmente è in corso una ricerca significativa per cambiare questo aspetto, in particolare nella comunità di apprendimento automatico / AI, ma i progressi sono lenti.

Il Watson di IBM, composto da 90 server, ciascuno con un core processor da 3,5 GHz (Deedrick, 2011), è ampiamente riferito a un computer che ha la capacità di superare le capacità di ragionamento umano. In quanto tale, è spesso detto popolarmente di essere un computer “intelligente”. Tuttavia, le persone hanno una forte comprensione della capacità di un computer – che è stata messa a punto dagli esseri umani per un compito molto specifico. Watson solleva l’intelligenza artificiale attraverso l’elaborazione del linguaggio naturale e la corrispondenza dei modelli, ma funziona in ambienti in cui l’incertezza è bassa.

Alcuni sostengono che l’apprendimento automatico e l’apprendimento approfondito si avvicinano all’intelligenza umana, ma al momento questi strumenti sono molto utili. Di conseguenza, i progressi che rappresentano sono evolutivi e non rivoluzionari. Una limitazione critica dell’apprendimento automatico è che, come approccio basato sui dati, è fondamentalmente legato alla qualità dei dati sottostanti e quindi può essere molto fragile.

Non ci sono garanzie che un computer che fa leva su algoritmi di apprendimento automatico possa rilevare un modello o un evento, o persino scenari che sono solo leggermente diversi. Man mano che l’incertezza aumenta, questi strumenti diventano meno utili.

Ad esempio, un algoritmo di apprendimento automatico molto pubblicizzato è stato in grado di identificare oggetti (ad esempio cane, gatto, camion) in immagini con un’accuratezza del 15,8% in un mondo contenente circa 22.000 categorie di oggetti (Le et al., 2012). Quando quel mondo è collassato in 1.000 categorie di oggetti, altri algoritmi possono raggiungere un’accuratezza fino al 60-70% (Sermanet et al., 2014). In entrambi questi studi, sono state necessarie 10 milioni di immagini etichettate per “addestrare” gli algoritmi. In confronto, gli umani hanno bisogno di molto meno esempi per “imparare” da, e hanno la capacità di discriminare più 22.000 singoli oggetti.

Quindi, mentre gli algoritmi di visione artificiale possono essere utilizzati per la navigazione, questi algoritmi sono tutt’altro che perfetti. Inoltre, più ordini di grandezza sono più difficili per un veicolo specifico. Quindi, mentre gli UAV sono piattaforme eccellenti per ottenere un’immagine, l’impostazione dell’UAV o di qualsiasi sistema autonomo è determinata da un obiettivo specifico.

L’incapacità dei computer di identificare obiettivi specifici con un alto grado di certezza evidenzia la natura probabilistica del ragionamento basato sulla conoscenza. Sia che siano umani o computer lo fanno, entrambi stanno indovinando informazioni incomplete basate su precedenti probabilità di un risultato. Mentre le conseguenze di un termostato automatico del riscaldamento centrale sono relativamente familiari, sono relativamente banali, lo stesso non si può dire di un’arma autonoma che fa un’ipotesi imprecisa nel suo particolare ambiente operativo.



La grande immagine

Il futuro di AI in sistemi militari è legato direttamente alla capacità degli ingegneri di progettare sistemi autonomi che dimostrano capacità di ragionamento conoscenza qualificata e indipendente di base come illustrato nella figura 2. Non esistono sistemi autonomi Attualmente in funzionamento. La maggior parte dei robot di terra sono telecomandati, il che significa che un essere umano sta ancora controllando direttamente un robot da una certa distanza attraverso una prolunga virtuale. La maggior parte degli UAV militari sono molto facili da navigare, ma non richiedono molto aiuto. Persino quelli che decollano, sorvolano un bersaglio per catturare immagini e poi ritornano a un livello automatizzato e non autonomo, e non ragionano sul volo come farebbero i sistemi autonomi.

Mentre gli attuali sistemi operativi sono più che autonomi, ci sono significativi sforzi globali nella ricerca e sviluppo (R & S) di sistemi autonomi. I progressi incrementali in questo sviluppo del sistema militare si stanno verificando in molti paesi nei veicoli aerei, terrestri, in mare e sottomarini con vari gradi di successo. Diversi tipi di elicotteri autonomi che possono essere sviluppati negli Stati Uniti, in Europa e in Cina. Veicoli terrestri autonomi come carri armati e veicoli di trasporto sono in via di sviluppo in tutto il mondo, così come i veicoli sottomarini autonomi. In quasi tutti i casi, tuttavia, queste tecnologie in via di sviluppo stanno faticando a fare il salto dallo sviluppo all’attuazione operativa.

Ci sono molte ragioni per la mancanza di successo nel portare queste tecnologie alla maturità, compresi i costi e le questioni tecniche impreviste, ma anche le barriere organizzative e culturali sono problematiche. Gli Stati Uniti, ad esempio, si sforzano di riportare gli UAV autonomi allo stato operativo, principalmente a causa di lotte organizzative e di priorita a favore di aerei con equipaggio (Spinetta e Cummings, 2012). Ad esempio, nonostante il fatto che il velivolo dell’F-22 abbia avuto problemi tecnici significativi e abbia avuto pochi voli in combattimento, l’Aeronautica statunitense sta pensando di ricominciare la linea di produzione dell’F-22 – in un’opzione estremamente costosa – anziché investire in più acquisizioni di droni. Oltre la linea di produzione, inoltre, il costo operativo orario dell’F-22 è di $ 68.362, rispetto ai $ 3.779 di Predator (Thompson, 2013); Quest’ultimo può eseguire la maggior parte delle stesse funzioni di base di un F-22 salvo per missioni di combattimento aria-aria, che l’F-22 stesso non era in grado di eseguire in precedenza a causa di problemi tecnici.

Per dare un altro esempio, l’X-47 della US Navy è destinato a essere sviluppato come un aereo da caccia/bombardiere autonomo (scopo raggiungibile). F-35 Joint Strike Fighter, anche se il programma è stato afflitto da problemi di gestione e di ingegneria, ed è particolarmente controverso alla luce di promozione delle tecnologie autonome (Hendrix, 2015). Per molti nel settore militare, gli UAV sono accettabili solo in un ruolo di supporto, ma minacciano lo status quo dei lavori più prestigiosi, “punta di lancia”.

Vi sono, tuttavia, altre questioni organizzative sull’operatività dei sistemi autonomi, e una che è sempre più problematica nello sviluppo del mercato. Sono in atto armi metaforiche nella sfera commerciale dello sviluppo di sistemi autonomi. Lo sviluppo di sistemi autonomi militari è stato rallentato e incrementale nel migliore dei casi, e in confronto con i progressi fatti nei sistemi autonomi commerciali come i droni, e specialmente nelle auto senza conducente.

Lo sviluppo automobilistico senza conducente è nato con un programma DARPA (Defense Advanced Research Projects Agency) nel 2004. Quando il programma si è concluso nel 2007, le auto senza conducente potevano muoversi solo lentamente attraverso percorsi chiusi, e non senza incidenti. Un decennio dopo, l’industria è sul punto di commercializzare auto senza conducente in tutto il mondo. Questo rapido progresso è il risultato del significativo investimento in ricerca e sviluppo sponsorizzato dall’industria, un mercato dei consumi automobilistico multimilionario. Nel frattempo – e paradossalmente, date le origini della tecnologia – ci sono stati pochissimi progressi nello sviluppo di veicoli autonomi militari.

L’incapacità dei militari di portare avanti i propri programmi di autonomia, non solo sul terreno ma anche nelle altre aree, è ovviamente legata alla crescita dei sistemi autonomi nel mercato commerciale, in particolare le auto senza conducente. La figura 3 mostra le spese in R & S nel triennio 2014-2016 in tre settori chiave: aerospaziale e difesa; automobilistico; e informazione e comunicazione. Questi settori sono fondamentali per lo sviluppo di sistemi autonomi e forniscono informazioni sulla velocità e la portata dell’innovazione.

Figura 3: spesa per ricerca e sviluppo per settore, 2014-16 (miliardi di dollari USA)

Il settore aerospaziale e della difesa è responsabile della maggior parte dello sviluppo di sistemi militari autonomi. Tuttavia, come mostrato nella Figura 3, la R & S rappresenta solo il 15% circa del settore globale dell’informazione e della comunicazione (ad esempio). Negli Stati Uniti, inoltre, la spesa è in declino. Lo sviluppo di sistemi autonomi è una priorità per l’industria della difesa statunitense e compete per lo sviluppo di velivoli di piccole e medie dimensioni (ad esempio l’F-35) e armi laser estremamente costose. Il risultato è solo una piccola parte del denaro per la ricerca e lo sviluppo della difesa è investito in sistemi militari autonomi.

Al contrario, non è solo la spesa in R & S nel settore automobilistico, ma sta crescendo sia negli Stati Uniti sia nei mercati globali. Un fattore chiave in questo settore è lo sviluppo della tecnologia automobilistica senza conducente (Industrial Research Institute, 2016) – Cruise Automation, acquistato da General Motors per oltre 1 trilione di dollari nel 2016.

Il settore dell’informazione e della comunicazione è un altro attore fondamentale nello sviluppo di sistemi autonomi. Le industrie del settore sono specializzate nello sviluppo di software, incluso l’apprendimento automatico e l’intelligenza artificiale, che sono le capacità principali di questi sistemi avanzati. Per dare alcuni esempi, X (hanno conosciuto entrambi) e programmi di ricerca automobilistica senza conducente; Facebook e Amazon hanno programmi di sviluppo di droni; e Apple è pensato per avere un progetto autonomo di sviluppo dell’automobile. R & S e l’industria aeronautica (Figura 3), è chiaro che è più importante del settore aerospaziale e della difesa.

Per quanto riguarda il futuro della guerra, è legato all’IA, l’ampia disparità nella spesa R & S autonoma commerciale e militare potrebbe avere un effetto a cascata sui tipi e sulla qualità di essere automaticamente incorporati nei sistemi militari. Una questione critica a questo riguardo è che avranno la capacità di sviluppare e testare sistemi autonomi sicuri e controllabili, specialmente quelli che sparano armi.

Gli ingegneri che progettano tali sistemi devono possedere una solida esperienza in hardware e software.

Tuttavia, vi è un numero limitato di università che si sono laureate in robotica, controlli, meccatronica e settori correlati con l’abilità tecnica per tali lavori e sono altamente competitive per il personale altamente qualificato. Questa richiesta è ciò che porta a $ 1 trilione di acquisizioni di start-up, così come da Uber, nel 2015, a 40 roboticisti altamente qualificati del National Robotics Engineering Center presso la Carnegie Mellon University. Boston Dynamics, una delle principali società di robotica per la ricerca e lo sviluppo militare statunitense, è stata sviluppata nel 2016 per lo sviluppo di un robot driver, ed è stata segnalata da diverse fonti nel 2016 ad es. Brian, M., 2016).

Con un mercato così altamente competitivo per i roboticisti e gli ingegneri correlati in tutti questi settori, il settore aerospaziale e della difesa, dove i finanziamenti sono in ritardo, è meno attraente per il più del personale. Di conseguenza, l’industria della difesa globale sta cadendo dietro le sue controparti commerciali in termini di innovazione tecnologica, con il divario che si sta allargando solo quando i migliori e più brillanti ingegneri si trasferiscono nella sfera commerciale. È probabile che questa mancanza comparativa di competenze sia carente o priva di garanzie e prove appropriate. Tanto meglio, è più probabile che sia la capacità delle industrie della difesa di essere in grado di garantire sistemi semi-autonomi, molto meno completamente autonomi.

Ricerca e sviluppo e competenza sono il risultato inevitabile della concorrenza e del libero mercato, non riconoscono pienamente la realtà di un cambiamento fondamentale nella tecnologia. rispetto ai sistemi commerciali. L’americano medio ha più probabilità di avere un veicolo senza conducente che ai soldati sul campo di battaglia, e i terroristi lo faranno. Sono potenzialmente in grado di acquistare droni su internet.

Questo squilibrio tecnologico fornirà nuove e impreviste dinamiche dirompenti per le operazioni militari. Ad esempio, se le società di difesa e i governi continuano un percorso di analfabetismo relativo, potrebbe essere abilitato tramite Google, Amazon o Facebook? Google ha a lungo preso le distanze da questi contratti che includono anche contratti militari preesistenti. Questi militari sono relegati all’acquisto di robot e questi servizi avrebbero un impatto negativo sul mercato.
Il divario tra lo sviluppo storico militare e UAV e le capacità del settore commerciale si sta riducendo, come dimostra il crescente numero di droni militari offerti in vendita via Internet. I filmati che mostrano le armi dei droni, che è un dominio esclusivo dei militari, possono ora essere trovati su YouTube. È improbabile che queste aziende imprenditoriali producano droni in grado di competere con UAV altamente avanzati come il Predator della US Air Force, ma lo saranno sicuramente in futuro. E mentre il braccio di ricerca avanzata delle forze armate statunitensi, la DARPA, ha avuto difficoltà nel fielding che può trasportare truppe, l’EHang della Cina è stato sviluppato per droni commerciali che trasporteranno passeggeri, e diverse società commerciali stanno sviluppando versioni di auto volanti autonome per il pubblico in generale utilizzare (ad es. Forum, 2016).

Lo sviluppo di tecnologie nel campo della robotica e di altre tecnologie può essere considerato il più possibile. La messa a punto di tecnologie nascenti senza test completi potrebbe essere a rischio sia per il personale militare che per i civili. Tuttavia, lo sviluppo di sistemi commerciali autonomi potrebbe essere più probabile che abbia successo rispetto all’attuale stato dell’arte. Nel frattempo, non è chiaro come rendere autonomi i droni per uso civile.

Davanti al sentiero spinoso

Sebbene non sia in dubbio che farà parte del futuro degli eserciti militari in tutto il mondo, il panorama sta cambiando rapidamente e in modi potenzialmente dirompenti. L’IA sta avanzando, ma vista l’attuale lotta per impregnare i computer di una vera conoscenza e di comportamenti basati sugli esperti, ci vorranno molti anni prima della nebbia della guerra.

Data l’attuale incapacità dell’IA di ragionare in contesti così altisonanti, è comprensibile che molte persone vogliano vietare le armi autonome, ma la complessità dell’argomento, il divieto deve essere attentamente definito. Fondamentalmente, ad esempio, un missile su un drone o il drone stesso? Sistemi di guida autonomi per missili su droni. E come verranno trattate le tecnologie che emergono dalla crescita del mercato, che dovrebbe superare alcuni aspetti della capacità militare e forse cambiare la percezione pubblica?

L’impatto della rapida espansione del mercato sullo sviluppo di sistemi autonomi non può essere sopravvalutato, e un problema ancora più grande a breve termine è il modo per comprendere appieno le implicazioni globali del cambiamento tangibile nella base di potere delle imprese commerciali. Macchine, computer e robot stanno diventando “più intelligenti”, quindi questo gruppo relativamente ristretto di esperti sta diventando un bene critico. Le università sono state lente nel rispondere a questa domanda e anche i governi sono rimasti indietro nel fornire borse di studio per incentivare gli studenti nel campo dell’IA.

In definitiva, la crescita nel settore della tecnologia dell’informazione commerciale e del settore automobilistico, in termini sia di attrarre i migliori talenti che di espandere capacità di sistemi autonomi, potrebbe essere un’arma a doppio taglio che inciderà indubbiamente.

________________________________________________________________
Reference

Brian, M. (2016), ‘Toyota is the top bidder for robotics pioneer Boston Dynamics’, Engadget, 1 June 2016, https://www.engadget.com/2016/06/01/toyota-alphabet-boston-dynamics.

Cummings, M. L. (2014), ‘Man vs. Machine or Man + Machine?’ IEEE Intelligent Systems, 29(5), pp. 62–69.

Deedrick, T. (2011), ‘It’s Technical, Dear Watson’, IBM Systems Magazine, http://www.ibmsystemsmag.com/ibmi/trends/whatsnew/It%E2%80%99s-Technical,-Dear-Watson.

Forum (2016), ‘Future of urban mobility: My kind of flyover’, Airbus Forum, http://www.airbusgroup.com/int/en/news-media/corporate-magazine/Forum-88/My-Kind-Of-Flyover.html.

Future of Life Institute (2015), ‘Autonomous Weapons: An Open Letter from AI & Robotics Researchers’, http://futureoflife.org/open-letter-autonomous-weapons.

Gigerenzer, G., Todd, P. M. and ABC Research Group (1999), Simple Heuristics That Make Us Smart, Oxford and New York: Oxford University Press.

Hendrix, J. (2015), Retreat from Range: The Rise and Fall of Carrier Aviation, Washington, DC: Center for a New American Security.

Human Rights Watch (2013), ‘Arms: New Campaign to Stop Killer Robots’, https://www.hrw.org/news/2013/04/23/arms-new-campaign-stop-killer-robots.

Human Rights Watch and International Human Rights Clinic (2016), ‘Killer Robots and the Concept of Meaningful Human Control: Memorandum to Convention on Conventional Weapons (CCW) Delegates’, https://www.hrw.org/news/2016/04/11/killer-robots-and-concept-meaningful-human-control.

Hutchins, A. R., Cummings, M. L., Draper, M. and Hughes, T. (2015), ‘Representing Autonomous Systems’ Self-Confidence through Competency Boundaries’, paper presented at the 59th Annual Meeting of the Human Factors and Ergonomics Society, Los Angeles, CA, 26–30 October 2015.

Industrial Research Institute (2016), ‘2016 Global R&D Funding Forecast’, supplement to R&D Magazine, Winter 2016.

Le, Q. V., Ranzato, M. A., Monga, R., Devin, M., Chen, K., Corrado, G. S., Dean, J. and Ng, A. Y. (2012), ‘Building High-level Features Using Large Scale Unsupervised Learning’, paper presented at the 29th International Conference on Machine Learning, Edinburgh, 26 June–1 July 2012.

Rasmussen, J. (1983), ‘Skills, rules, and knowledge: Signals, signs, and symbols, and other distinctions in human performance models’, IEEE Transactions on Systems, Man, and Cybernetics, 13(3), pp. 257–266. Sermanet, P., Eigen, D., Zhang, X., Mathieu, M., Fergus, R. and LeCun, Y. (2014), ‘OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks’, paper presented at the International Conference on Learning Representations, Banff, AB, 14–16 April 2016.

Smith, P. J., McCoy, C. E. and Layton, C. (1997), ‘Brittleness in the design of cooperative problem-solving systems: The effects on user performance’, IEEE Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans, 27(3), pp. 360–371.

Spinetta, L. and Cummings, M. L. (2012), ‘Unloved Aerial Vehicles: Gutting its UAV plan, the Air Force sets a course for irrelevance, Armed Forces Journal, November 2012, pp. 8–12.

Thompson, M. (2013), Costly Flight Hours, Time, 2 April 2013.
_________________________________________________________
1 Nel 2009 il volo 1549 della US Airways ha subito un doppio guasto al motore dopo il decollo dall’aeroporto LaGuardia di New York a causa dell’ingestione di volatili in entrambi i motori. Incapace di raggiungere qualsiasi pronto per l’atterraggio, il pilota, Cap. Chesley Sullenberger, eletto alla Hudson River Aircraft. Non ci sono stati incidenti mortali e tutti i 155 passeggeri e l’equipaggio sono stati in grado di evacuare l’aereo; tutti furono successivamente salvati in barca.


Fonte:

https://pdfs.semanticscholar.org/1833/82618461d9150962e458cb4032956795c25f.pdf

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

%d blogger hanno fatto clic su Mi Piace per questo: