Il rischio della stupidità artificiale

di Massimo Zaninelli, Consigliere AISM

Pubblicato su HBR Italia Marzo 2018  Marzo Il rischio della stupidità artificiale Zaninelli Massimo

A volte è inevitabile chiedersi se, nel progettare le campagne di web marketing, non finiamo per riporre troppa fiducia nei sistemi informativi che utilizziamo.

Ne ho avuto indiretto indizio quando un ex collega mi ha segnalato lo scarso aggiornamento del mio profilo su uno dei maggiori social media professionali, ricordandomi che da anni avevo lasciato l’azienda in cui avevamo entrambi lavorato. In realtà il mio profilo è aggiornato ma la piattaforma non è in grado di distinguere tra il vecchio ruolo di dipendente e quello attuale di advisor. Quindi, in modo acritico, ha mandato ai miei contatti la segnalazione di un anniversario che, in senso stretto, non è tale.

L’inconveniente non ha provocato danni seri ma purtroppo le cose non vanno sempre così: limiti di programmazione dei software o di aggiornamento dei dati possono produrre noie piuttosto gravi, come ben sa chiunque attinga alle fonti della rete per le proprie attività di marketing. E non è tutto.

I sistemi che utilizziamo sono potenti e veloci ma nessuno di questi attributi può essere associato con leggerezza al concetto di intelligenza. Prima di tutto perché la definizione di intelligenza è tutt’ora assai controversa, poi perché esistono ormai varie evidenze che suggeriscono come la sola capacità computazionale non esaurisca le potenzialità dell’intelletto umano. In un certo senso, è proprio questo il vero “peccato originale” di ciascun computer, almeno per come lo intendiamo oggi: macchine con smisurate capacità di calcolo, in grado di gestire software e, in parte, hardware evolutivi ma che in nessun caso mostrano qualcosa di paragonabile a un’intelligenza umana. Niente autocoscienza, né dilemmi etici, né decisioni autonome.

Ricapitolando: sempre più spesso basiamo le nostre ricerche e le nostre campagne di marketing su fonti derivate da piattaforme digitali che presentano inevitabili limiti di programmazione, contenuti non molto aggiornati e che trattano le informazioni senza alcun discernimento.

Proprio quest’ultimo punto rimanda al termine stupidità artificiale, meno popolare ma a mio avviso più calzante di quello di intelligenza artificiale, spesso impropriamente ridotta all’apparente capacità di alcune piattaforme di suggerire o prendere decisioni proprie. Siamo di frequente testimoni di episodi sconcertanti, frutto di azioni intraprese in autonomia da sistemi informativi diversamente stupidi: basti pensare alla celebre foto della bambina vietnamita bannata da FaceBook nel 2016 per pedofilia! In quel caso la sofisticata applicazione non mancò di individuare la bimba nuda ma fu del tutto incapace di contestualizzarne il significato. Se cose del genere capitano a questi colossi, figurarsi cosa può succederci quando deleghiamo a un marchingegno l’esercizio di una scelta critica o anche del semplice buon senso.

Della mancanza di discernimento che caratterizza anche i sistemi informativi più avanzati parla esplicitamente Mark Bishop, docente di Cognitive Computing presso la Goldsmiths, University of London. Egli confuta, in parte, l’ipotesi di Stephen Hawking secondo cui l’emergere di una super-intelligenza artificiale minaccerà presto o tardi la sopravvivenza della stessa umanità. Al contrario Bishop si dice assai più preoccupato delle conseguenze della stupidità artificiale, soprattutto per i suoi potenziali esiti in ambito militare.

Limitandoci a scenari meno catastrofici e più vicini alla nostra esperienza, sembra ragionevole utilizzare i sistemi informativi basati sulla cosiddetta AI per il supporto che offrono nel ricercare nuove opportunità di business e nel gestire le relazioni con i clienti. Al contrario, appare imprudente delegare a essi decisioni fini, in cui non sono le capacità computazionali a offrire un vantaggio competitivo ma la sensibilità personale, che permette di cogliere le sfumature e di sovvertire, se necessario, gli schemi comportamentali prestabiliti a favore di soluzioni originali e più efficienti.

Nel saggio “Le leggi fondamentali della stupidità umana” (Il Mulino, 1988) lo storico dell’economia Carlo Maria Cipolla affermava che “Una persona stupida è una persona che causa un danno ad un’altra persona o gruppo di persone senza nel contempo realizzare alcun vantaggio per sé o addirittura subendo una perdita”. Purtroppo, sembra che questa facoltà sia presente anche nei sistemi informativi in cui tanto confidiamo; c’è da ipotizzare che, avendone la possibilità, oggi Cipolla non esiterebbe a includerli nella sua celebre definizione.