Quattro conversazioni con Guido Vetere e Daniela Tafani sui sistemi di apprendimento automatico che generano testi e sulle proprietà politiche di quelli che prevedono il futuro. Gli incontri sono organizzati dalla Scuola critica del digitale del CRS e dal Forum Disuguaglianze e Diversità e si svolgeranno a Roma, dal 25 gennaio al 29 febbraio, in Via della Dogana Vecchia 5, a partire dalle 17:30.
La Scuola critica del digitale del Centro per la riforma dello Stato e il Forum Disuguaglianze e Diversità organizzano quattro conversazioni con Guido Vetere e Daniela Tafani sui sistemi di apprendimento automatico che generano testi e sulle proprietà politiche di quelli che prevedono il futuro. Gli incontri si svolgono a Roma, dal 25 gennaio al 29 febbraio, in Via della Dogana Vecchia 5, a partire dalle 17:30.
Giovedì 25 gennaio, ore 17:30
Guido Vetere
L’apprendimento automatico
L’idea che un automa possa imparare a svolgere le proprie attività attraverso l’osservazione di esempi e dati nasce assieme all’idea che tali attività possano essere programmate in forma di esplicite istruzioni. Nei suoi 70 anni di storia, l’Intelligenza Artificiale ha sviluppato entrambe queste idee, ma oggi si tende a identificarla soltanto con una di queste, cioè con l’apprendimento automatico (machine learning), in particolare condotto mediante reti neurali (neural networks). Vedremo quindi come funzionano le rete neurali e le architetture nelle quali si possono impiegare, con riferimento a quelle particolarmente adatte a lavorare con il materiale linguistico. Qui la registrazione del primo incontro.
Giovedì 8 febbraio, ore 17:30
Guido Vetere
Apprendere modelli linguistici e generare testi
Nella storia delle tecnologie del linguaggio, che rappresenta una grossa parte dell’Intelligenza Artificiale, c’è un prima e un dopo, e la linea di demarcazione sono i cosiddetti “Large Language Model” (LLM). Introdotti intorno al 2020, essi consistono in gigantesche reti neurali che riescono ad apprendere “conoscenza linguistica” e usarla non solo per “capire” i testi, ma anche per generarli. Vedremo come vengono costruiti questi modelli, che genere di “conoscenza” riescano ad acquisire, e come possano produrre testi verosimili, come ad esempio risposte alle domande più varie, pur non avendo alcuna nozione di verità. Qui la registrazione del secondo incontro.
Giovedì 29 febbraio, ore 17:30
Daniela Tafani
Le proprietà politiche dei sistemi di Intelligenza Artificiale
Sistemi di apprendimento automatico sono utilizzati oggi per prevedere il futuro di singoli individui, e assumere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza.
Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile.
Si tratta di sistemi che hanno proprietà politiche intrinseche: sono incompatibili con lo Stato di diritto, perché fanno sì che le persone siano trattate come oggetti, anziché come soggetti in grado di autodeterminarsi, che non possano prevedere quale legge verrà loro applicata, che siano tutte sorvegliate come “sospette” e che siano o no in grado di esercitare diritti a seconda del loro contingente e variabile status economico, sociale, emotivo, di salute o religioso. Qui la registrazione del terzo incontro.
Mercoledì 6 marzo, ore 17:30
Guido Vetere
Applicazioni possibili, usi consapevoli, modelli di sviluppo
Le capacità dei nuovi automi linguistici sono impressionanti, e su di esse si è scatenata una “corsa all’oro” da parte delle grandi multinazionali informatiche. Ma anche le comunità “aperte”, sia accademiche sia dell’industria di nicchia, sono al lavoro per sottrarre questi sistemi al monopolio e abilitare modelli decentralizzati di sviluppo. L’obiettivo non è solo quello della riduzione della “forza lavoro” umana in alcune attività cognitive, ma anche quello di sviluppare applicazioni e servizi che non sarebbero possibili senza l’impiego di queste capacità, inclusi sistemi socialmente utili. I “Large Language Model” dunque sono qui per restare, e oggi si discute su come governarne lo sviluppo e il dispiegamento, sempre che una governance sia in effetti possibile.
Foto Markus Spiske su Unsplash