Ascoltalo su: Podcast GtM , Spotify
La conversazione con il Professore Massimiliano Badino si concentra sull’impatto dell’intelligenza artificiale sull’ambiente, sulla percezione della realtà e sulla necessità di controllo e regolamentazione. Badino spiega che l’IA può contribuire all’efficienza ambientale nell’agricoltura e all’analisi del clima, ma evidenzia anche l’impatto ecologico dell’IA stessa.
Si discute poi del rischio di falsificazione della realtà e degli stereotipi perpetuati dagli algoritmi, con esempi come il caso di Tay di Microsoft. Si sottolinea la necessità di regolamentare l’IA, ma si evidenzia la sfida data dalla sua rapida evoluzione e dalla sua natura di mercato. Il Prof. Badino suggerisce che il controllo dovrebbe estendersi oltre il livello legislativo, coinvolgendo l’educazione e promuovendo una maggiore consapevolezza dell’IA e delle sue implicazioni sociali
Trascrizione parziale
Alessandro Di Nuzzo: Buongiorno a Massimiliano Badino, professore associato di Logica e Filosofia della Scienza e Big Data Epistemology all’Università di Verona. Grazie professore per aver accettato il nostro invito su Green to meet.
Massimiliano Badino: Grazie a voi per avermi invitato.
Alessandro Di Nuzzo: Vorremmo capire un po’ da lei quali realmente possono essere le interazioni fra questa grande rivoluzione e tutte le questioni che riguardano l’ambiente. Perché ci è stato detto che l’intelligenza artificiale, fra i tanti settori che investirà, investirà anche il settore dell’ambiente, per esempio quello dell’agricoltura.
Massimiliano Badino: È un po’ l’argomento dell’anno ed è un argomento ancora a di venire, è impossibile fare delle previsioni certe, però quello che si può fare in questo momento è tracciare dei possibili scenari di sviluppo.
Diciamo in generale, quando parliamo di intelligenza artificiale e di sistemi di cosiddetto machine learning, la cosa che dobbiamo sempre tenere a mente è che questi sistemi utilizzano tantissimi dati, divorano dati per essenzialmente produrre previsioni, analizzare schemi tra questi dati, trovare dei metodi per renderli più efficienti nel modo di processare, nel modo di utilizzarli.
Quindi il grande contributo che l’intelligenza artificiale può dare alle problematiche ambientali per esempio nel caso dell’agricoltura riguarda quella che oggi si chiama l’efficentazione dei processi, ciò è estremamente efficace, può essere applicata in modo molto proficuo nell’analisi dei flussi di operazione, nell’analisi delle procedure di produzione, può essere estremamente utile nel risparmio energetico ad esempio perché riesce a convogliare l’energia là dove veramente serve, a sfruttare meglio il tempo essenzialmente, a accorciare le filiere di produzione, tutte queste cose qua.
E poi ovviamente come forse avrete visto ci sono già tentativi di inserire la robotica all’interno dell’agricoltura. Notizia di ieri, non so se avete seguito, qui a Verona c’è una importante fiera dove è stato presentato un prototipo di robot raccoglitore che è stato sviluppato per l’Università di Verona. Ovviamente questo tipo di scenario è un po’ più lontano nel tempo, è un prototipo, e secondo me non c’è ancora un rischio concreto di sostituzione degli esseri umani in questo tipo di attività.
Perché è vero che i robot sono già piuttosto utilizzati e che in certe condizioni possono essere estremamente utili ed estremamente più efficienti gli esseri umani. Ad esempio il controllo di qualità. I robot sono molto più rapidi di noi e molto più efficienti..
Però altra cosa è tutto l’aspetto del lavoro che si svolge in agricoltura, ad esempio quello della raccolta, che invece ha degli elementi di complessità, di variabilità, di contingenza che i robot non sono ancora nelle condizioni di sfruttare. I robot per adesso funzionano ancora molto bene in ambienti che sono abbastanza standardizzati, ad esempio le fabbriche.
Ma ci sono certamente tanti tentativi di utilizzarli in contesti complessi, come potrebbe essere la chirurgia, ad esempio, una frontiera. Però questi sono ancora veramente contesti troppo complessi, contesti in cui è impossibile, per così dire, insegnare al robot l’esperienza che ogni singolo essere umano ha, che ogni singolo agricoltore ha, della circostanza, del contesto, quel tipo di sapere che si impara facendo. ecco questo è ancora molto difficile da insegnare ed è anche molto difficile da apprendere dal robot anche osservando.
Questa è un’altra strategia invece di insegnarglielo si può far osservare un essere umano al lavoro e il robot apprende. È una cosa che in certi contesti come, per esempio, quelli abbastanza standardizzati delle fabbriche più facile in contesti molto più variabili come quello dell’agricoltura che si svolge all’aria aperta con tantissime variabili. Quindi dobbiamo averne paura o dobbiamo invece vederla come una risorsa?
Sicuramente in questo momento è una risorsa e io confido soprattutto in Europa che si prenderanno provvedimenti prima che diventi un rischio. ci sono degli aspetti che riguardano invece la diciamo la politica ambientale più in generale in cui è già un rischio, e parliamo soprattutto per esempio della questione riscaldamento climatico, ambiento climatico, lì l’intelligenza artificiale può esserci certamente utile perché ci aiuta a conoscere meglio il clima, a capire e avere dei modelli più efficienti, però dall’altra parte l’intelligenza artificiale inquina tantissimo, una cosa che spesso non si non si menziona o non si ricorda proprio perché richiede tantissimi dati e richiedere dati significa avere dei server che scaldano, che devono essere raffreddati con tantissima acqua, che occupano tantissimo spazio, ……….
Alessandro Di Nuzzo: Professore, parlando invece del rapporto fra l’intelligenza artificiale e la realtà, la percezione che noi poi abbiamo della realtà, ci pone naturalmente un grande problema, ovviamente di veridicità, di autenticazione della realtà. Come facciamo? Quali sono le strade che noi possiamo prendere per evitare questo clamoroso, gravissimo rischio di falsificazione della realtà? Anche il caso di Taylor Swift, di cui abbiamo letto in questi ultimi giorni è un caso inquietante. Ci viene da pensare che ognuno di noi potrebbe un giorno essere messo in rete, diciamo così, in un video nel quale fa cose che non ha mai fatto.
Massimiliano Badino: Sì. Il caso di Taylor Swift è molto indicativo diciamo è un problema che ci stiamo portando avanti da tempo perlomeno dal 2017. Questo momento è significativo perché ha attirato l’attenzione, essendo successo a un’artista molto famosa e importante, con un impatto culturale e non solo negli Stati Uniti, specialmente in vista delle imminenti elezioni americane. Questo ha amplificato le sue implicazioni, ma è un problema reale, non stiamo esagerando su ciò che è davvero rilevante. È un fatto concreto quello che è stato menzionato.
Da diversi anni, i modelli linguistici sono in grado di scrivere interi articoli, ci sono stati casi clamorosi di articoli scientifici redatti da algoritmi. Quindi, c’è sicuramente un problema di adattamento alla realtà che coinvolge diversi livelli.. ……..
C’è il problema ovviamente del plagio che è per sé stesso una frode. Però spesso non si sa, ad esempio parlando proprio di falsificazione, che GPT è in grado qualche volta rischia di inventare completamente le informazioni che fornisce. La parola dell’anno, dell’anno scorso, del 23, Cambridge Dictionary, è stata hallucination, allucinazione, che non riguarda il caso del deserto, dell’oasi con la palma che il povero disgraziato vede, ma riguarda un fenomeno specifico dei modelli linguistici, cioè la produzione di informazioni completamente false, completamente inventate…..
Il punto è che in gran parte dei casi questi modelli linguistici funzionano in un modo molto diverso dal cervello umano, questa è un’altra cosa che spesso non si dice, si tende a sottovalutare.
Noi abbiamo un rapporto con la tecnologia. Soprattutto con questo tipo di tecnologia, un po’ oracolare, .., questo succede, il computer non mi fa fare certe cose… come se il computer avesse una volontà, ma nel caso di questi strumenti è ancora di più..
Siamo propensi a dare loro, ad attribuire loro volontà, intenzioni, atteggiamenti tipicamente umani. Su questo non ci sarebbe niente di male se non fosse che tendiamo anche a pensare che loro producono quello che producono nello stesso modo in cui lo facciamo noi. Invece non è così, è profondamente diverso…..
.. Non fa come fanno tutti gli esseri umani, pensa al personaggio, alla trama, a una sequenza di avvenimenti. Semplicemente produce, predice ogni parola una dopo l’altra. Ogni volta che ha prodotto una decina di parole predice l’undicesima a partire dalle dieci che ha costruito in precedenza.
Su una base di relazioni probabilistiche, semantiche, tra le parole che ha immagazzinato nella sua fase di addestramento. Quindi è completamente probabilistico e non ha nessuna cognizione, se si potesse applicare un concetto di questo genere, di quello che viene prodotto. L’unica cosa che, per così dire, di cui ha cognizione è la plausibilità, la probabilità, i legami semantici fra le parole.
Che significa che per CGPT scrivere due o tre versi, dei decasillabi sciolti, o inventare completamente un’informazione solo perché è plausibile, è esattamente la stessa cosa. Non c’è nessun legame, non c’è nessun vincolo di realtà o necessità di andarsi a verificare quello che sta dicendo. Semplicemente è la produzione in serie di parole probabilisticamente collegate.
…Ecco, tenere in mente questo fatto che questa è in parte una grande rivoluzione, stiamo avvicinandoci a una rivoluzione concettuale che potenzialmente è simile a quella che abbiamo avuto quando c’è stato Darwin o Copernico.
Ci stiamo avvicinando ad avere a che fare con entità le cui performance sono sotto certi punti di vista in certi specifici compiti simili alle nostre, ma il cui funzionamento è completamente diverso da noi. Noi siamo stati abituati a considerarci l’unico essere cognitivamente evoluto del pianeta, perché sapevamo fare certe cose….
Non abbiamo mai trovato altre entità che sono in grado di fare le stesse cose. Ci sono entità che fanno cose migliori, performance fisiche migliori, però siamo gli unici a creare testi, per esempio. Adesso ci troviamo di fronte delle entità che sono in grado di fare queste cose, ma lo fanno in un modo completamente ….
Un altro grande problema relativo alla falsità e alla verità e alla Al e del tipo che questi sistemi producono della realtà circostante è il problema degli stereotipi. Questi sistemi si sono addestrati sui testi che trovano su internet, che significa Wikipedia, Twitter, Facebook, ciò di cui i nostri ambienti epistemici sono popolati.
Il problema è che i nostri ambienti epistemici sono terribilmente inquinati da stereotipi, dalle peggiori cose. C’è un caso famoso ……
Si chiamava Tay, fu introdotto da Microsoft e fu addestrato e lasciato interagire con gli utenti di Twitter e dovette essere ritirato dopo poche ore perché aveva cominciato a costruire post nazisti, razzisti, della peggiore specie, cioè buttato dentro quell’ambiente assorbiva il peggio di questo ambiente e restituiva il peggio di questo ambiente…….
Qua è un problema analogo a quello di prima, questi sistemi non sono in grado di dire questo è un pregiudizio, questo invece non lo è. Assorbono e riemettono. E questo è molto pericoloso se si parla di un utilizzo di questi oggetti, per esempio a scuola, i ragazzi e le ragazze, poco critico perché significa che, perché c’è questo atteggiamento oracolare che noi riassorbiamo questi pregiudizi, questi stereotipi che troviamo, che il sistema trova nell’ambiente circostante e ci ributta contro di noi e rischiamo semplicemente di propagarli, rischiamo di anzi in un certo senso convalidarli nella pratica.
Questi sono un po’ i rischi legati secondo me al rapporto falsità, chiamiamola post verità se volete, fake news, questi sistemi sono potenzialmente molto pericolosi per propagare l’inquinamento che in generale in questo momento sta diciamo rovinando i nostri ambienti dove noi ci formiamo le nostre credenze, le nostre opinioni e soprattutto la generazione che sta emergendo.
Alessandro Di Nuzzo: Professore, quindi un’ultima domanda. Allora c’è bisogno, dico, di organismi di controllo?
………………………………………………………………………………..
………………………………………………………………………………..
Alessandro Di Nuzzo: Professor Badino, grazie tante di questa conversazione veramente illuminante.
Massimiliano Badino: Grazie a voi.