Academia.eduAcademia.edu

La metafora della IA: una giungla lessicale e foresta simbolica

2023, Zorzetto

Based on the anthology Human Rights and Moral Technologies. A Comparative Perspective between Italy and Brazil, the paper reflects on Artificial Intelligence as a metaphor that helps the process of categorization and imaginative rationality in the Digital Age

notizie di POLITEIA, XXXIX, 151, 2023. ISSN 1128-2401 pp. 179-185 179 La metafora della IA: una giungla lessicale e foresta simbolica silvia zorzetto* The Metaphor of IA: a Lexical Jungle and Symbolic Forest Abstract: Based on the anthology Human Rights and Moral Technologies. A Comparative Perspective between Italy and Brazil, the paper reflects on Artificial Intelligence as a metaphor that helps the process of categorization and imaginative rationality in the Digital Age. Keywords: Artificial intelligence, Metaphor, Metaphysics, Meta-ethics, Digital age. “Ma molto più Argute son quelle Imagini, nelle quali, alla semplice Metafòra imitatrice della Natura s’aggiunge alcun’altra, viuezza partorita dall’Ingegno” (Tesauro, 1663, p. 11) Premessa Il “rapporto tra diritti umani e tecnologie morali” – si legge nella introduzione all’opera in commento – “è da tempo diventato oggetto di una riflessione tanto ampia quanto trasversale e interdisciplinare”1. L’affermazione sarebbe descrittiva dell’esistente se non fosse per l’attributo “morale” riferito alla tecnologia. L’uso di questo aggettivo e la sua ascrizione alle “tecnologie” è controverso, atteso che la moralità è questione che attiene agli esseri umani, almeno secondo un indirizzo di pensiero in meta-etica. I curatori fanno riferimento al Sapere reticolare, alla Scienza e alla valorizzazione integrale della Persona che sono al centro delle riflessioni dei contributi. Sapere, Scienza e Persona sono – provocatoriamente – scritti con la lettera iniziale maiuscola. Questo accorgimento linguistico non denota una deriva essenzialista, ma piuttosto una ispirazione universalista come mostra la genesi e il respiro del progetto alla base della ricerca e della collettanea. Italia e Brasile: casi o esempi che testimoniano come gli esseri umani sul pianeta nel passato come nel presente si trovino dinanzi a fenomeni storici, mutamenti epocali, e problemi comuni generali. Il che rende quanto meno interessante, ma, andando più in profondità, anche eticamente doveroso, chiedersi come si ragiona e se/quali riflessioni si conducono o quali ipotesi di soluzioni si prospettano in altri luoghi del pianeta. I contenuti del progetto e della collettanea sono plurimi e di frontiera. Ciascuno è di straordinaria complessità. Si va dall’ingegneria genetica alla biomedica, dalla democrazia * Professoressa di Filosofia del diritto, Università degli Studi di Milano. 180 La metafora della IA all’istruzione/educazione, dalla protezione dei dati alla responsabilità civile, dalle tematiche bioetiche di inizio/fine vita al biopotenziamento di corpo e mente, dall’impatto dell’emergenza pandemica alle vaccinazioni, dalle banche di dati genetici al rapporto tra scoperte neuro-scientifiche con le relative ricadute in ambito giuridico. Filo rosso conduttore degli studi è l’interrogativo se la Intelligenza Artificiale (“IA”) sia una ulteriore evoluzione della tecnologia che modella la vita sul Pianeta dagli albori della storia umana o se rappresenti una cesura epocale. I saggi raccolti nel volume si accostano ai temi e al quesito citati dando spazio alle dimensioni etica (in termini di etica pubblica) e morale (nel senso della morale individuale) e ai profili normativi e giuridici, il tutto senza dimenticare il fondamentale sostrato politico (in chiave di teoria politica e politica applicata, del diritto e nel diritto). Dedicare a ciascun contributo qualche parola riassuntiva sarebbe impossibile e non renderebbe giustizia alla ricchezza e alla profondità delle analisi. Abbracciando lo spirito del progetto e della collettanea, di seguito se ne proseguirà il filo rosso, concentrando l’attenzione sull’interrogativo di fondo relativo a come le tecnologie moderne stanno cambiando il nostro modo di concepire ogni cosa, essere umano compreso, e che ruolo giochi la IA in questo processo storico. Dal 1956 a oggi: cosa è l’IA? Va precisato preliminarmente che approcciarsi a tematiche simili conduce più a sollevare dubbi che ipotizzare risposte e, quindi, a semplificazioni inevitabili. Tra l’altro – come sovente accade per gli argomenti che incrociano più discipline specialistiche e finiscono per essere di moda – la IA è, in un certo qual modo, vittima del proprio successo. La letteratura è non solo sterminata, ma anche straordinariamente variegata. Sono trascorsi ormai circa settant’anni da quando la nozione è stata utilizzata per la prima volta nella Proposta per il Dartmouth Summer Research Project on Artificial Intelligence. Secondo la proposta, i problemi di IA erano: “1. Automatic Computers”; “2. How Can a Computer be Programmed to Use a Language”; “3. Neuron Nets”; “4. Theory of the Size of a Calculation”; “5. Self-Improvement”; “6. Abstractions”; “7. Randomness and Creativity”2. L’elenco sorprende per attualità. Da allora è passata così tanta acqua sotto i ponti che la immaginazione è diventa realtà in un processo che costantemente supera la fantasia. L’elemento tempo (meno di 70 anni) perde di senso e significato, a fronte di un “cambio d’epoca”3. Oggi, la IA è sulla bocca di tutti, ancorché esistano profondi disaccordi su cosa essa sia e cosa denominiamo come tale. Nell’accumularsi dei discorsi presupposti filosofici fondamentali differenti restano impliciti.4 Tra le più diffuse concezioni, l’IA indica quei “software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions” 5. Silvia Zorzetto 181 Per la UNESCO, “AI systems are information-processing technologies that integrate models and algorithms that produce a capacity to learn and to perform cognitive tasks leading to outcomes such as prediction and decision-making in material and virtual environments. AI systems are designed to operate with varying degrees of autonomy by means of knowledge modelling and representation and by exploiting data and calculating correlations. AI systems may include several methods, such as but not limited to: (i) machine learning, including deep learning and reinforcement learning; (ii) machine reasoning, including planning, scheduling, knowledge representation and reasoning, search, and optimization”6. Secondo la Proposta di Regolamento europeo in corso di discussione7, la IA “consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire al conseguimento di un’ampia gamma di benefici a livello economico e sociale nell’intero spettro delle attività industriali e sociali” e per “sistema di intelligenza artificiale” s’intende “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. Come emerge da queste nozioni, così come dalle numerosissime altre che sono elaborate quotidianamente, in materia si procede perlopiù per esemplificazioni. Si punta su taluni casi paradigmatici. Si cerca di fornire una pluralità di criteri a base denotativa. Il tutto in una produzione costante di neologismi generati con lessico altamente tecnico-specialistico. Stando così le cose, la IA risulta un campo che si presta più a essere percorso palmo a palmo alla ricerca di segni e segnali (sempre precari, più o meno condivisi e convenzionali), che non a essere compreso a tavolino. Di giorno in giorno si elaborano quelle che un tempo, rispolverando un “vecchio attrezzo” del mestiere, si sarebbero chiamate definizioni operazionali8. Quello della IA è un buon esempio di come non c’è un dizionario, né una enciclopedia in costanza di fenomeni a elevatissima complessità e caratterizzati da mutamenti costanti rapidissimi. Secondo alcune stime, il mondo genererà circa uno yottabyte (un milione di trilioni di megabyte) di dati all’anno entro il 2030 e 180 zettabyte entro il 2025. La crescita vertiginosa della “infosfera” ha spinto alla Conferenza generale su pesi e misure di Parigi del 2022 a introdurre nuovi prefissi per il Sistema internazionale di unità con effetto immediato. I nuovi prefissi, ronna e quetta, stanno rispettivamente per 1027 e 1030. Questo è il primo aggiornamento dal 1991, quando s’introdusse zetta (1021) e yotta (1024). Si stima che il 2012 sia stato l’anno in cui la quantità totale di dati digitalizzati utilizzati al mondo ha superato uno zettabyte e nel 2016 il solo traffico Internet globale ha superato tale quantità. In siffatto ambiente che riflette a livello semiotico, anche modelli sortali o a rizoma appaiono inadeguati e sembra piuttosto realizzarsi nei fatti una semiosi illimitata9. Uno guardo dentro al cannocchiale Accostarsi dal punto di vista semiotico all’IA può essere un utile complemento esplicativo per comprendere sia le narrazioni che l’accompagnano (in altra epoca, si sarebbe parlato di ideologie), sia gli assunti e le implicazioni più filosofiche, e in definitiva meta-fisiche. 182 La metafora della IA Dal punto di vista linguistico, il sintagma ‘Intelligenza Artificiale’ è una metafora10. Una metafora che – oltre a portare con sé tutta la meraviglia di questa figura che da millenni cattura la curiosità dell’umano intelletto11 – è anche specchio di una età della storia umana12. Il sintagma Intelligenza Artificiale esprime un tropo di salto o un salto di topic (dall’animato all’inanimato, dal naturale all’artificiale). Presenta così tratti di sinestesia, ed evoca una immagine ossimorica13. Alla radice vi è un assunto duplice che (i) la intelligenza sia proprietà co-essenziale alla natura animata (i.e. animali ed esseri umani in ispecie) e (ii) si dia una dicotomia Naturale / Artificiale. Questa dicotomia s’intreccia con la convinzione che l’intelligenza riguardi gli animali (umani). Al fondo vi è un’associazione o proporzione in cui l’animato sta al naturale come l’artificiale sta all’inanimato e l’idea archetipica di un legame tra anima e intelletto. Richiamando le parole di Giabattista Vico, “la maggior parte dell’espressioni d’intorno a cose inanimate sono fatte con trasporti del corpo umano e delle sue parti”14. Come rilevò Umberto Eco la metafora istituisce un rapporto inedito tra due elementi, innescando una riorganizzazione del sapere, producendo nuove ontologie15. Essa “‘pone’ in senso filosofico, ma anche in senso fisico, nel senso che ‘pone sotto gli occhi’” “una proporzione che, dovunque fosse depositata, sotto gli occhi non era […] e gli occhi non la vedevano” 16. Infatti, il nesso tra IA e sinestesia/ossimoro va oltre la dimensione discorsiva o retorico-figurativa e alle acquisizioni delle scienze moderne. Se è vero che, ad esempio, le scoperte della neurologia spiegano la sinestesia (anche) su base biologica, considerando le capacità sensoriali e percettive, la metafora della IA ha portata assai più profonda. Essa è simbolo o rappresentazione di una parabola che parte da una concezione dell’umano come essere animato caratterizzato dall’intelletto (sullo sfondo fa capolino la visione antropocentrica, sedimentatasi antropologicamente, che gli umani siano i più intelligenti tra gli animali) e arriva a una concezione che ammette l’opposto, in cui la intelligenza non è più esclusiva dell’umano, ma può essere “ri-creata” nell’inanimato, arte-fatto dal primo17. La metafora dell’IA costituisce così un punto di vista privilegiato sul mondo contemporaneo. Come ricordano Lakoff e Johnson, i miti antichi depositati nel senso comune concepiscono l’uomo come qualcosa di separato dall’ambiente. Il sostrato è una concezione in senso lato oggettivista che ragiona in termini di successo funzionale, la idea della conoscenza come potere e la scienza come controllo sulla natura18. Note 1 Salardi, Saporiti, Vetis Zaganelli, 2022, p. xv. McCarthy et al., 1955. Una rassegna dell’IA dopo mezzo secolo è fornita da Moor, 2006, che ricorda la Dartmouth College Artificial Intelligence Conference: The Next 50 Years (AI@50), 13-15 luglio 2006 i cui obiettivi principali sono stati celebrare il progetto del 1956, valutare fino a che punto l’IA è progredita e fare proiezioni/predizioni fino al 2056. Cfr. www.dartmouth.edu/~ai50/. 3 Così, condivisibilmente, Benanti, 2020, pp. 49-96. 4 Ad esempio, l’IA è definita “as a growing resource of interactive, autonomous, and often selflearning agency (in the machine learning sense […]), that can deal with tasks that would otherwise require human intelligence and intervention to be performed successfully”: Floridi-Cowls, 2019, p. 4. Secondo 2 Silvia Zorzetto 183 Mantelero, 2022, p. 2, è “an umbrella term” con il quale si richiama “a core component of the individual’s ‘sovereignty’ over information: the human ability to control, manage and use information in a clear, understandable and ex post verifiable way”. Tra i contributi attenti alla pulizia linguistica, v. Salardi, 2023; Salardi, Saporiti, 2020, pp. 52-74. A conferma delle difficoltà di orientamento a livello europeo il think thank (EP, 2023) fa i conti con le categorie generiche di “artificial narrow intelligence”/“weak AI” e “artificial general intelligence”/“strong AI”. 5 HLEG, 2019. La nozione è punto di riferimento base in Samoili et al., 2021, che mira a una definizione operativa e una tassonomia, raccogliendo una preziosa mole di dati e criteri di analisi. 6 UNESCO, 2021, p. 10. Molti documenti di istituzioni e organizzazioni internazionali propongono definizioni diverse di IA, adottando approcci eterogenei. Per un confronto v. le attività svolte dal Consiglio d’Europa e i suoi comitati (Comitato dei Ministri, CAI, CAHAI), consultabili all’indirizzo https://www.coe.int/it/web/intelligenza-artificiale/home/. V. anche Council of Europe Commissioner for Human Rights, 2019; Council of Europe, Convention, 2019 e CDENF, 2022. 7 CE, 2021a e 2021b; EP, 2023. Il regolamento potrebbe entrare in vigore in via transitoria nel 2024. Quale ulteriore tassello del Libro bianco sull’IA (2020), è stata adottata la proposta di direttiva sulla responsabilità dell’IA. Informazioni aggiornate sono reperibili agli indirizzi: https://www.europarl. europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificialintelligence/ e https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/ file-regulation-on-artificial-intelligence/. 8 Cfr. Alpert, 1938, pp. 855-861; Dodd-Shanas, 1943, pp. 482-491; Ennis, 1964, pp. 183-201. 9 Eco distingueva tra dizionario ed enciclopedia, concependo la seconda come un “postulato semiotico” e una “ipotesi regolativa”, pur consapevole che “il sistema generale delle scienze è una specie di labirinto di cammino tortuoso capace di annientare qualsiasi albero enciclopedico volesse rappresentarlo”: Eco, 1984, pp. 109-111. 10 Che poi si usino molte (altre) metafore per parlare di AI è conseguenza del procedimento “creativo” innescato dalla AI, quale metafora essa stessa. 11 Basti ricordare il mirabile cannocchiale aristotelico. Tesauro, 1663, p. 598: “generalmente io dico, il corpo naturalE tanto esser più nobile dell’Artefatto, quanto la Natura è più nobile dell’Arte: essendo quella un’Opera della Mente Divina, questa della Humana: quella Maestra, questa imitatrice”. 12 Convergono verso questa prospettiva programmi di ricerca differenti, quelli delle c.d. “scienze cognitive” e quelli delle c.d. “scienze discorsive”: Mininni, 2006, p. 144, il quale sottolinea i presupposti epistemologici differenti sottesi agli studi, che vanno dall’oggettivismo naturalista al costruttivismo interazionale. Si v. Battistini, 2006, pp. 17-35. 13 Vedi Neuwirth, 2022. 14 Vico, 2007, p. 588. 15 Eco, 1980, pp. 191-236. 16 Eco, 1984, p. 164. 17 Ansuátegui Roig, 2020, p. 22, sottolinea che la trasformazione tecnologica in atto obbliga a riformulare paradigmi e modi di comprendere e interpretare la realtà e la natura umana: “la riflessione su cos’è umano, quando ciò che è umano smette di essere tale, i limiti tra umano e non umano, è una delle conseguenze dello sviluppo tecnologico che si riverberano direttamente sull’autocomprensione dell’individuo”. 18 Lakoff-Johnson, 1980, p. 229. Riferimenti bibliografici Alpert, H. (1938), “Operational Definitions in Sociology”, Am. Soc. R., 3, 6, pp. 855-861. Ansuátegui Roig, F.A. (2020), “Nuove tecnologie e spazio pubblico”, in S. Salardi, 184 La metafora della IA M. Saporiti (a cura di/edited by), Le tecnologie ‘morali’ emergenti e le sfide eticogiuridiche delle nuove soggettività, / Emerging ‘moral’ technologies and the ethicallegal challenges of new subjectivities, Torino: Giappichelli, pp. 22-41. Battistini, A. (2006), “Le risorse conoscitive ed estetiche della metafora”, in Aa.Vv., La metafora tra letteratura e scienza. Convegno di studi Aula Magna – Palazzo Ateneo, Bari, 1-2 dicembre 2005, Bari: Servizio Editoriale Universitario, pp. 17-35. Benanti, P. (2020), Digital age. Teoria del cambio d’epoca. Persona, famiglia e società, Milano: San Paolo. CDENF Steering Committee for the Rights of the Child (2022), Proposals for a CDENF Report on the Rights of the Child and Artificial Intelligence, in https://rm.coe. int/cdenf-2022-20rev-concept-note-rc-and-ai-revised-/1680a8791e/. Council of Europe, Commissioner for Human Rights (2019), Unboxing Artificial Intelligence: 10 steps to protect Human Rights, in https://rm.coe.int/unboxingartificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64/. Council of Europe, Consultative Committee of the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data (2019), Guidelines on Artificial Intelligence and Data Protection, in https://unesdoc.unesco.org/ark:/48223/pf0000377881/. Dodd, S.C., Shanas, E. (1943), “Operational Definitions Operationally Defined”, Am. J. of Soc., 48, 4, pp. 482-491. Eco, U. (1980), “Metafora”, in Enciclopedia Einaudi, IX, Torino: Einaudi, pp. 191-236. Eco, U. (1984), Semiotica e filosofia del linguaggio, Torino: Einaudi. Ennis, R.H. (1964), “Operational Definitions”, Am. Educ. Res. J., 1, 3, pp. 183-201. European Commission (2021a), Proposal for Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending legislative acts, in https://eur-lex.europa.eu/ legal-content/EN/TXT/?uri=celex%3A52021PC0206/. European Commission (2021b), Explanatory Memorandum – Proposal for Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending legislative acts, in https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206/. European Commission (2020), White Paper on Artificial Intelligence – A European approach to excellence and trust, in https://eur-lex.europa.eu/legal-content/IT/ TXT/?uri=CELEX%3A52020DC0065/. European Parliament (2023), Think Thank, General-purpose artificial intelligence. At a Glance, in https://www.europarl.europa.eu/thinktank/en/document/EPRS_ ATA(2023)745708/. European Parliament, Committee on the Internal Market and Consumer Protection, Committee on Civil Liberties, Justice and Home Affairs (2023), Draft Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts, in https://www.europarl.europa.eu/ resources/library/media/20230516RES90302/20230516RES90302.pdf/. Floridi, L., Cowls, J. (2019), “A unified framework of five principles for AI in society”, Harvard Data Sci. R., 1, pp. 1-13. Silvia Zorzetto 185 High-Level Expert Group on Artificial Intelligence (2019), A Definition of AI: Main Capabilities and Disciplines, Bruxelles: EC, in https://digital-strategy.ec.europa.eu/en/ library/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines/. Lakoff, G., Johnson, M. (1980), Metaphors we live by, Chicago: University of Chicago Press. Mantelero, A. (2022), Beyond Data: Human Rights, Ethical and Social Impact Assessment in AI, The Hague: Springer-Verlag (eBook). McCarthy, J., Minsky, M.L., Rochester, N. and Shannon, C.E. (1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, in http://wwwformal.stanford.edu/jmc/history/dartmouth.pdf/. Mininni, G. (2006), “Le metafore con cui ci pensiamo”, in Aa.Vv., La metafora tra letteratura e scienza. Convegno di studi Aula Magna – Palazzo Ateneo, Bari, 1-2 dicembre 2005, Bari: Servizio Editoriale Universitario, pp. 144-156. Moor, J. (2006), “The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years”, AI Magazine, 27, 4, pp. 87-91. Neuwirth, R.J. (2022), “Law, artificial intelligence, and synaesthesia”, AI & Society, in https://doi.org/10.1007/s00146-022-01615-8/. Salardi, S. (2023), Intelligenza artificiale e semantica del cambiamento: una lettura critica, Torino: Giappichelli. Salardi, S., Saporiti, M. (2020), “Perché l’IA non deve diventare persona. Una critica all’ineluttabile ‘divenire antropomorfico’ delle macchine”, in S. Salardi, M. Saporiti (a cura di/edited by), Le tecnologie ‘morali’ emergenti e le sfide eticogiuridiche delle nuove soggettività / Emerging ‘moral’ technologies and the ethicallegal challenges of new subjectivities, Torino: Giappichelli, pp. 52-74. Salardi, S., Saporiti, M., Vetis Zaganelli, M. (a cura di) (2022), Diritti umani e tecnologie morali. Una prospettiva comparata tra Italia e Brasile/Direitos humanos e tecnologias morais. Uma perspectiva comparada, Torino: Giappichelli. Salardi, S., Saporiti, M., Vetis Zaganelli, M. (2022), “Introduzione”, in Salardi, S., Saporiti, M., Vetis Zaganelli, M. (a cura di), Diritti umani e tecnologie morali. Una prospettiva comparata tra Italia e Brasile/Direitos humanos e tecnologias morais. Uma perspectiva comparada, Torino: Giappichelli, pp. xv-xvi. Samoili, S., López Cobo, M., Delipetrev, B., Martínez-Plumed, F., Gómez, E., De Prato, G. (2021), AI Watch. Defining Artificial Intelligence 2.0. Towards an operational definition and taxonomy for the AI landscape, Luxembourg: Publications Office of the European Union. Tesauro, E. (1663), Il cannocchiale aristotelico. O’sia, Idéa dell’argvta et ingeniosa elocvtiqne, che ferue à tutta l’Arte oratoria, lapidaria, et simbolica esaminata co’ Prinpipii del divino Aristotele, Venezia: Paolo Baglioni, 2° ed. UNESCO (2021), Recommendation on the Ethics of Artificial Intelligence, The United Nations Educational, Paris: Scientific and Cultural Organization, in https:// unesdoc.unesco.org/ark:/48223/pf0000381137/. Vico, G. (2007 [1744]), Principi di scienza nuova, a cura di A. Battistini, I, 4° ed., Milano: Mondadori.