Cosa succederebbe se un domani scoppiasse una nuova grande guerra? Con quali armi si combatterebbe? Soprattutto, chi e come la combatterebbe?
Immaginate questo scenario: soldati americani (tanto per fare un esempio) di stanza in Arizona che si svegliano, si preparano, vengono passati in rivista e poi, anziché montare sugli aerei ed i carri armati, vanno alla loro console e accendono quella che è in tutto e per tutto una sorta di playstation tramite la quale guidano un attacco di migliaia di droni che si trovano in Palestina (sempre per fare solo un esempio) e bombardano centinaia di edifici ed obiettivi strategici. Verso ora di pranzo fanno due ore di pausa: chi vuole fa un salto al McDonald o posta qualche selfie nel deserto (quello dell’Arizona, non della Palestina) su Facebook, qualcun altro un po’ più all’antica fa una corsetta o una partita a poker coi camerati, e subito dopo si ricomincia, joystick in mano, con un’altra serie di bombardamenti. Fino a sera, quando poi la giornata finisce e tutti possono andare in libera uscita. Qualcuno di loro tornerà a casa a fare le coccole al figlio appena nato.
Ecco, la guerra del futuro potrebbe essere così: semplice e leggera, combattuta comodamente dal proprio divano, a basso impatto emotivo. Al punto che ci si chiederebbe perché farla combattere a soldati professionisti e non invece a semplici appassionati giocatori di videogiochi strategici o sparatutto. Perché no? La nuova naja potrà avere un processo di reclutamento basato su una social-gamification, e per gli alti gradi di ufficiale si potrà immaginare una sorta di talent-show.
Quanto è lontano questo futuro?
Ah, dimenticavo: in tutti i videogiochi ci si batte contro un’intelligenza artificiale, che si comporta in tutto e per tutto come un giocatore, con livelli di esperienza variabili. A questo punto, perché non usare gli “umani” semplicemente per programmare ed addestrare l’Intelligenza Artificiale, e poi non lasciare che l’intera guerra se la sbrighi lei stessa da sola, senza neanche i giocatori “umani”?
E’ questa la domanda che ci si è posti alla alla 24ª conferenza internazionale congiunta per l’intelligenza artificiale (IJCAI), ove è emerso il forte timore che lo sviluppo di queste armi porterebbe ad una nuova corsa agli armamenti a cui praticamente chiunque potrebbe accedere, azzerando di fatto la soglia di ingresso.
Intelligenza Artificiale significa andare oltre qualsiasi strumento sofisticato oggi impiegato dall’uomo. Significa che sono in gioco sistemi artificiali totalmente autonomi rispetto a qualunque intervento decisionale dell’uomo che li ha creati. Significa eliminare il controllo umano. Ed eliminare, di conseguenza, qualunque senso di responsabilità o di impatto emotivo rispetto alle scelte ed al comportamento delle macchine.
Ora, lo scenario sopra descritto è già reale non solo nei film di Hollywood, ma perché già oggi alcuni governi (vedi USA con il programma M3 del ministero della Difesa) stanno sviluppando tutte le tecnologie per andare in quella direzione. Software in grado di prendere decisioni tattiche in ambito militare sono già una realtà da diverso tempo. E non solo i governi: anche aziende private (vedi Google) stanno contribuendo massicciamente.
Ma, dal punto di vista dell’ETICA, è giusto sviluppare queste tecnologie solo perché si è in grado di farlo? Sapendo che poi saranno alla portata di chiunque, con conseguenze ben peggiori della guerra fredda o di qualche attacco terroristico kamikaze alla “vecchia maniera”?
È possibile immaginare un’Intelligenza Artificiale meramente “benefica” o è pura teoria? Per rimanere sul nostro tema, la decisione di uccidere dovrebbe sempre in ultima istanza essere umana o pensiamo di poterla delegare ad un complesso e sofisticato software armato fino ai denti?
La risposta è molto difficile, e c’è un dato purtroppo molto sconfortante che non lascia presagire nulla di ottimistico: guardando al passato, alla storia umana, spesso le decisioni prese in tale ambito hanno avuto davvero poco di “etico”. Chissà che le macchine non si comportino diversamente!