Nuovi saperi
di Diego Parini e Mattia La Torre
Con la matematica si arriva all’intelligenza artificiale, in un dialogo con Gabriella Puppo
Sapienza, Dipartimento di Matematica, febbraio 2022. Gabriella Puppo, ci racconta il mondo dell’intelligenza artificiale e il nuovo corso di Laurea di Sapienza. Un percorso che parte dalla matematica per arrivare alla creazione di algoritmi, molto potenti, e presenti anche della quotidianità dei tutti i giorni
1. Perché creare un corso incentrato sull’intelligenza artificiale e a chi è rivolto?
Questo è un corso dedicato a studenti che hanno interessi verso la matematica e verso le sue applicazioni. Un pubblico con un forte amore per le scienze quantitative, interessati al ragionamento astratto e al ragionamento logico L’intelligenza artificiale è un campo specifico dell’applicazione matematica che, ultimamente, sta riscuotendo un interesse estremamente forte. In Italia, c’è solo una laurea con questo tipo di indirizzamento ed è in Bocconi a Milano. È una laurea privata, incentrata sulle applicazioni finanziarie dell’intelligenza artificiale. Noi, per questo motivo, abbiamo pensato ad un servizio pubblico, che l’università pubblica deve fare. Inoltre, ci siamo concentrati sulle applicazioni biologiche e mediche, poiché in Lazio c’è una forte presenza di industrie biotech, interessate ad algoritmi di questo tipo.
L’intelligenza artificiale ha indubbiamente avuto successo, in particolare il machine learning. Tuttavia, non è chiaro perché funziona e qual è, quantitativamente, l’affidabilità di questi algoritmi. Ci si sta orientando verso algoritmi più specifici che sappiano orientarsi tra i dati. Per far ciò serve più conoscenza dei dati, di nuovo più matematica, per riuscire ad avere dei risultati con un tempo di calcolo minore.
2. Che ruolo ha l’intelligenza artificiale nella quotidianità?
Banalmente, la si trova in tutti i tag che propone Facebook, nelle didascalie che vengono proposte, nel riconoscimento di immagini, oppure, gli algoritmi di riconoscimento che usano in Cina per sorvegliare la popolazione, sono fatti con l’intelligenza artificiale. Ancora, si trovano in particolari applicazioni biotech, dove gli algoritmi di intelligenza artificiale si occupano di protein folding cioè del ripiegamento delle proteine. Questi algoritmi, data una determinata catena di amminoacidi, indicano come la proteina si disporrà nello spazio. La disposizione nello spazio della proteina è fondamentale per capire quello che poi farà davvero. Per esempio, sono utilizzati nella costruzione dei vaccini.
3. Quanto è importante la matematica per lo sviluppo dell’intelligenza artificiale e come si arriva ad una intelligenza artificiale partendo dalla matematica?
Diciamo che finora è stato un processo senza la matematica. Lo sviluppo degli algoritmi non è partito dalla matematica, cioè da una formulazione astratta. Quello che si vuole fare adesso è studiare appunto la formulazione astratta di questi algoritmi, che hanno comunque una struttura matematica.Per riuscire a capire sia come mai funzionano sia come costruire dei modelli di algoritmi più efficienti, meno penalizzanti nel tempo di calcolo e nella struttura di memoria.
4. Perché è presente un corso di neuroscienze?
Quando si parla di machine learning si parla di reti neurali. C’è un parallelo con la struttura del cervello,è un’analogia. Ci chiediamo se la struttura del cervello o l’apprendimento possano essere dei paradigmi per poter ottenere nuovi algoritmi. Per esempio, selezionare le strade dell’apprendimento. È una cosa che il cervello fa quando decide di memorizzare determinate informazioni e dimenticarne altre. Una selezione sul mondo, che poi tratteniamo. Se ci pensate, siamo sottoposti ad una quantità enorme di dati rispetto a ciò che effettivamente ricordiamo.
Studiare neuroscienze vuol dire da un lato cercare applicazioni dell’intelligenza artificiale nell’ambito delle neuroscienze, e dall’altro imparare dal cervello nuove possibili strade.
5. Fino a che punto una macchina è capace di apprendere e migliorare le sue performance?
Una macchina può apprendere e migliorare, già i vecchi algoritmi lo facevano. Ad esempio, i più famosi sono quelli applicati al gioco degli scacchi . Fino a che punto può sostituire l’intelligenza umana? Quello al momento non lo sa nessuno.
Già subito dopo la Seconda guerra mondiale, Alan Turing parlava di intelligenza della macchina, e come definirla tramite il famoso Test di Turing. Secondo me, le intelligenze artificiali che stiamo studiando noi sono puramente astratte, sono degli algoritmi e imparano dai dati.Non hanno un feedback relativo alle esperienze sensoriali, come il nostro, che ci permette di migliorare. I feedback sono dovuti da un lato, alle punizioni che si ricevono quando si sbaglia e, dall’altro, ai premi e alle gratificazioni. Questo motore, profondamente umano, la macchina non credo ce l’abbia ancora.
6. Quali problemi etici esistono negli sviluppi dell’intelligenza artificiale?
Di problemi etici ce ne sono tantissimi. Noi forniamo, in maniera innocente, dati: una foto caricata sul social, il racconto della giornata su Facebook; questi dati vengono usati e potenziati in una maniera che l’utente non conosce assolutamente. La gente normalmente non pensa che: lasciando la posizione accesa sul cellulare, i suoi spostamenti vengano registrati, e non solo per la timeline che Google Maps ti fornisce alla fine di ogni mese, ma vengono usati per fini commerciali. Mentre, in alcuni Paesi, vengono usati con il fine di controllare le persone. Come la vicenda che riguarda l’esercito americano in Afghanistan: i soldati americani nei momenti liberi si allenavano usando delle app per il fitness, di fatto queste applicazioni fornivano dati ai ribelli afgani che venivano così a conoscenza della loro posizione.
È importante sapere come questi dati vengono usati. Ma, siccome questo è quasi impossibile, dovrebbero essere le aziende ad avere dei limiti a quello che possono fare. Quindi, vuol dire: necessità di legiferare e, farlo in fretta, perché queste cose stanno crescendo con una velocità incredibile.
Studiare etica significa che chi lavorerà a questi algoritmi dovrà essere conscio del potere che hanno, soprattutto dei risvolti etici, magari anche legali, di questa attività. Finora, gli scienziati hanno svolto tutto in maniera totalmente irresponsabile, non in senso negativo sia chiaro, ma nel senso di assenza totale di responsabilità. Questo non è più sostenibile, ci deve essere una coscienza etica proprio perché questi algoritmi sono estremamente potenti.
Gabriella Puppo, Matematica presso il Dipartimento di Matematica della Sapienza Università di Roma
Commenti recenti