aboutpharma.com
Medicina scienza e ricerca
Tra etica e tecnologia l’accordo è difficile
L’innovazione digitale sta portando con sé conseguenze non previste al momento del suo sviluppo. Per questo è sempre più necessario che scienziati, ingegneri, tecnologi e progettisti si sentano responsabili non solo del buon funzionamento del prodotto finale, ma anche dei suoi effetti su individui e società. Dal numero 168 del magazine
di Cristina Tognaccini 19 aprile 2019
Qualche anno fa si è scoperto che il software di una fotocamera interpretava le immagini degli asiatici come se fossero persone che stavano strizzando gli occhi. Mentre un altro aveva difficoltà a riconoscere quelle con la pelle di colore più scuro. Il problema era che gli algoritmi avevano imparato da un insieme di immagini scelte dagli ingegneri, prevalentemente basate su soggetti con la pelle bianca e il sistema aveva costruito un modello del mondo basato su di esse. Difficile in questo modo riconoscere correttamente volti di altre etnie. Google invece mostrava pubblicità per lavori di alto management, con uno stipendio più alto, più frequentemente agli utenti maschili rispetto alle donne. Perché il sistema di machine learning utilizzato era stato disegnato a partire da database costruiti nel tempo, in cui più spesso gli uomini ricoprivano posizioni simili rispetto alle donne.
È solo un esempio di come l’intelligenza artificiale se non gestita nel modo migliore, possono portare a conseguenze poco etiche. Come appunto il rischio di perpetrare pregiudizi diffusi tra gli esseri umani se gli algoritmi non sono scritti nel modo corretto. Ma non solo, il rischio può verificarsi anche in altre situazioni dalla salute ai trasporti, al lavoro, all’uso della rete. La previsione di contrarre malattie per esempio può allo stesso tempo discriminare la persona quando cerca lavoro. L’algoritmo di gestione di un servizio di taxi in occasione di un’emergenza può raddoppiare il prezzo delle corse perché è stato creato per aumentarlo quando la domanda cresce. O ancora i veicoli autonomi che pur facilitandoci la vita potrebbero finire per consumare una grande quantità di energia per restare in movimento, a discapito della sostenibilità del pianeta.
Sensibilizzazione sul tema
Papa Francesco – che ha anche ammesso di essere un disastro con la tecnologia – lo scorso febbraio ha incontrato Brad Smith, presidente e Chief legal officer di Microsoft, per discutere di un uso etico dell’intelligenza artificiale. E se l’incontro si è focalizzato su come colmare il divario digitale a livello globale, Smith ha anche affermato che sono necessarie nuove ed evolute leggi etiche per governare l’intelligenza artificiale. Il Pontefice non è però l’unico a essersi accorto che le nuove tecnologie hanno bisogno di un aspetto più etico. Tutti, dai costruttori agli utilizzatori finali, devono essere sensibilizzati sul tema.
Tecnici etici
Da tempo in Europa i corsi di laurea rivolti ai futuri ingegneri prevedono anche insegnamenti di etica del digitale e del personal computer come spiega Mariarosaria Taddeo, che da sei anni se ne occupa al dipartimento di Computer science dell’Università di Oxford. “Sempre di più si cerca di formare i tecnici rispetto alle implicazioni etiche e sociali che la tecnologia apporta – aggiunge – non soltanto in senso astratto, ma anche concreto”.
Scienziati, ingegneri, tecnologi e progettisti insomma si trovano ormai davanti alla sfida urgente di affrontare l’innovazione in maniera consapevole. Si sentono responsabili non solo del buon funzionamento delle tecnologie, ma anche delle loro conseguenze. “Anni fa un ingegnere si sarebbe preoccupato di sviluppare un algoritmo in maniera funzionale, senza farsi tanti problemi di carattere etico – spiega Paolo Volontè sociologo e coordinatore di Meta, l’unità di studi umanistici e sociali su scienza e tecnologia del Politecnico di Milano, dove proprio lo scorso febbraio è partito il primo insegnamento universitario di Ethics for technology.
“Oggi invece la sensazione è che ci sia la consapevolezza di toccare questioni che avranno conseguenze importanti. Perciò gli ingegneri svolgono il loro lavoro con maggior accortezza, sensibilità e prudenza rispetto al passato. È una svolta importante. perché il rischio è di sviluppare una tecnologia perfetta che non siamo in grado di usare, o peggio, che rischiamo di usare male. È un po’ la stessa reazione che ebbero i fisici dopo aver messo a punto la fissione nucleare”.
Rischi o opportunità
Inutile dire che a trovarsi nell’occhio del ciclone sia l’intelligenza artificiale (o artificial intelligence, AI). “Una forza potente che sta rimodellando pratiche quotidiane, interazioni personali e l’ambiente”, come l’hanno definita in un recente articolo su Science, Taddeo e Luciano Floridi, professore di filosofia ed etica dell’informazione a capo del Digital ethics lab dell’Università di Oxford (dove lavora con Taddeo), che più di qualsiasi altra nuova tecnologia ha bisogno di un quadro etico per tenerla sotto controllo e aiutarci a sfruttarne il potenziale. Tra i rischi che accompagnano l’uso l’intelligenza artificiale Taddeo elenca il deskilling, la possibilità cioè, che gli esseri umani perdano la capacità di svolgere compiti importanti – come leggere una Tac o far atterrare un aereo – perché delegati all’AI (il che a lungo andare però potrebbe essere nocivo perché perderemmo la capacità di capire quando l’AI fa un errore o non sapremo come fare in caso non dovesse funzionare).
E l’autodeterminazione?
A questo si somma il pericolo di compromettere la nostra autodeterminazione, perché sempre più influenzata dagli algoritmi che ogni giorno influenzano le nostre scelte quotidiane. Dal libro da leggere a cosa mangiare. Infine la comprensione. Spesso chi utilizza algoritmi o ne è l’utente finale non sa come realmente funziona il processo. “Ci fidiamo di una tecnologia che non controlliamo e dobbiamo cercare di renderla più trasparente per capire quando non funziona o perché le cose vengono fatte in un certo modo” afferma Taddeo. “Per esempio l’AI viene usata dalla banca per capire se concedere un mutuo. Oggi non siamo in grado di dire perché dia risposta affermativa o meno. Per cui quando una persona chiede il motivo del rigetto di una pratica, per esempio, non è possibile darle una spiegazione. E non può nemmeno appellarsi a essa”.
Uomo-macchina: correggersi a vicenda
Le nuove tecnologie offrono però anche diverse opportunità. Taddeo cita come esempio uno studio condotto dal Massachusetts institute of technology (Mit) e il Beth Israel deaconess medical center, entrambi di Boston, in cui l’intelligenza artificiale è stata confrontata con quella umana nel compiere una diagnosi di tumore al seno. L’aspetto sorprendente è che se le macchine avevano un tasso di errore del 7,5% e il patologo del 3,5%, quando combinati insieme la percentuale di errore diagnostico scendeva fino allo 0,5. “Perché AI e l’intelligenza umana fanno errori diversi e quando si combinano si correggono a vicenda” spiega Taddeo. “E l’etica dovrebbe proprio permetterne l’integrazione”.
Una tecnologia etica è possibile
Il lavoro di chi si occupa di etica, come Taddeo, è insomma traslare teorie convenzionali in linee guida e principi di indirizzo. Documenti che possono essere utili sia ai policy maker sia a chi sviluppa le tecnologie. Per cui una tecnologia etica è sì possibile, ma a certe condizioni. Se gli ingegneri hanno consapevolezza delle “ethical, legal and social implications (Elsi)” di una tecnologia. Il regolatore riesce a trovare un equilibrio tra evitare rischi e creare regole troppo stringenti che possono limitare la progressione dell’innovazione. Infine se gli utenti vengono educati. “Per anni abbiamo utilizzato questa tecnologia senza conoscerla, senza esserne educati” conclude la filosofa. “Per molto tempo per esempio, si è pensato che Facebook fosse gratis, ma in realtà lo paghiamo, solo con una moneta diversa. Bisogna educare gli utenti, passando anche per le scuole e le università”.
Una normativa soft
Per quanto riguarda la legislazione sulla robotica e l’intelligenza artificiale, oggi non sono stati ancora fatti grandi passi avanti in termini di legislazione vincolante, ma esistono appunto diversi documenti di policy di diritto che servono come orientamento. A spiegarlo è Erica Palmerini, direttrice dell’Istituto di Diritto, politica e sviluppo (Dirpolis) della Scuola Sant’Anna di Pisa, centro che nel 2012-14 ha coordinato il gruppo di lavoro del progetto europeo Robolaw, che ha prodotto le linee guida presentate al Parlamento europeo sullo sviluppo dell’innovazione e della tecnologia robotica. Punto di partenza che ha poi portato a una risoluzione approvata dall’assemblea del Parlamento europeo a febbraio nel 2017, che propone norme di diritto civile per la robotica.
Regole frammentarie
Lo scopo principale della risoluzione è una direttiva, un atto vincolate che legiferi sulla robotica intesa in senso lato, dai veicoli autonomi ai droni, alle protesi e così via. “Un aspetto interessante verificatosi negli ultimi tempi – spiega – è il cambio di prospettiva che si è aperta anche verso l’intelligenza artificiale e non solo la robotica. Sull’AI la Commissione europea ha emanato una comunicazione (artificial intelligence for Europe) nell’aprile del 2018, e ha poi creato un gruppo di esperti incaricato di elaborare linee guida per lo sviluppo etico ed affidabile dell’AI. È stato anche prodotto un documento, per ora in versione draft, approvato a dicembre 2018 (ethics guidelines for trustworthy AI). Siamo in attesa della versione finale”.
In definitiva secondo Palmerini sarà difficile vedere un’unica legislazione vincolante. Il settore dovrà fare affidamento più su linee guida di carattere etico, codici di condotta ecc. su una forma di softlaw o di autoregolazione. Inoltre se mai ci sarà una normativa dovrà essere di tipo settoriale, non generale e molto probabilmente sarà necessaria solo per alcune applicazioni.
https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe