{"id":305,"date":"2023-04-21T15:39:37","date_gmt":"2023-04-21T15:39:37","guid":{"rendered":"https:\/\/sipeia.it\/?page_id=305"},"modified":"2023-05-09T17:25:23","modified_gmt":"2023-05-09T17:25:23","slug":"manifesto-della-societa-italiana-per-letica-dellintelligenza-artificiale-sipeia-su-chatgpt-e-gli-altri-large-language-model","status":"publish","type":"page","link":"https:\/\/sipeia.it\/?page_id=305&lang=en","title":{"rendered":"Manifesto della Societ\u00e0 Italiana per l\u2019Etica dell\u2019Intelligenza Artificiale (SIpEIA) su ChatGPT e gli altri Large Language Model"},"content":{"rendered":"\n<p>SIpEIA prende posizione su ChatGPT e gli altri Large Language Model sottolineando i rischi che nascono non dalla tecnologia ma dal fatto che siano prodotti commerciali con un modello di business non ancora chiaro. (<a href=\"https:\/\/sipeia.it\/wp-content\/uploads\/2023\/05\/Manifesto-SIpEIA-su-chatGPT.pdf\" data-type=\"URL\" data-id=\"https:\/\/sipeia.it\/wp-content\/uploads\/2023\/05\/Manifesto-SIpEIA-su-chatGPT.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">versione pdf<\/a>)<\/p>\n\n\n\n<h1 class=\"wp-block-heading\">Abstract<\/h1>\n\n\n\n<p>La Societ\u00e0 Italiana per l\u2019Etica dell\u2019Intelligenza Artificiale (SIpEIA) vuole evidenziare i rischi introdotti da ChatGPT e GPT-4 di OpenAI e gli altri analoghi <em>Large Language Models<\/em> (LLM) sviluppati da altre aziende. Gli argomenti che ci portano ad una posizione di prudenza sono molteplici. Prima di tutto la retorica inevitabilista che accompagna come sempre l\u2019introduzione di una nuova tecnologia e l\u2019assenza di contromisure da parte di OpenAI quali quella di permettere a tutti di sapere se un testo \u00e8 stato prodotto da ChatGPT, in modo da metterci in grado di scoprire se un testo, ad es., una tesi di laurea, sia contraffatto: tutti i dati dell\u2019interazione degli utenti con ChatGPT sono raccolti da OpenAI per i suoi fini, quindi perch\u00e9 non metterli a disposizione di tutti per scoprire eventuali plagi? Tale raccolta indiscriminata di dati degli utenti ha per altro portato all\u2019intervento del Garante per la protezione dei dati personali. Se ormai Wikipedia definisce l\u2019Intelligenza Artificiale come \u201c<em>intelligence demonstrated by machines<\/em>\u201d, l\u2019intelligenza attribuita da alcuni a ChatGPT \u00e8 invece molto distante da quella umana, mancando a ChatGPT un <em>grounding<\/em> nella realt\u00e0 per tramite della corporeit\u00e0 (<em>embodiment<\/em>). Molti difensori di ChatGPT usano argomenti che tracciano analogie con altre tecnologie del passato: tutte le tecnologie hanno utilizzi dannosi, l\u2019automazione ha prodotto in passato pi\u00f9 posti di lavoro di quanti ne ha cancellati, e cos\u00ec via. Bisogna notare invece che l\u2019impatto che possono avere queste tecnologie \u00e8 a livello sistemico, sociale ed economico: come i social network hanno contribuito a mettere in pericolo le democrazie, e le tecnologie ICT hanno sempre creato nuovi monopoli, l\u2019impatto che possono avere i LLM sulla disinformazione pu\u00f2 essere devastante e nuovi monopoli tecnologici possono portare a incrementare le disuguaglianze.<\/p>\n\n\n\n<p>Bisogna evitare che il business model che caratterizza il capitalismo della sorveglianza diventi il modello di monetizzazione anche dei LLM, perch\u00e9 l\u2019impatto sarebbe molto maggiore. Infatti, i LLM creano \u201crelazioni sintetiche\u201d con gli utenti, coinvolgendoli in una interazione anche emozionale e portando a nuove e pi\u00f9 profonde modalit\u00e0 di estrazione dei dati, nonch\u00e9 possibilit\u00e0 di manipolazione degli utenti. Noi umani infatti attribuiamo a chi comunica con noi stati mentali ed emozioni, che i LLM <em>by design <\/em>non hanno, e siamo quindi esposti a manipolazione da parte loro.<\/p>\n\n\n\n<p>Vogliamo evidenziare infine i rischi che l\u2019AI <em>gi\u00e0 ora<\/em> presenta quando \u00e8 basata su modelli economici basati sullo sfruttamento, piuttosto che orientare l\u2019attenzione dei media verso scenari di rischio lontani e probabilmente irrealistici menti artificiali che supererebbero le capacit\u00e0 degli esseri umani.<\/p>\n\n\n\n<p>SIpEIA presenta pi\u00f9 nel dettaglio le preoccupazioni nei confronti di come viene gestita l\u2019innovazione in questo position paper.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\">Position paper di SIpEIA su ChatGPT e gli altri <em>Large Language Model<\/em><\/h1>\n\n\n\n<p>Da quando ChatGPT \u00e8 stata resa pubblica da OpenAI nel novembre 2022 si \u00e8 alimentato un forte dibattito sul suo impatto sulla societ\u00e0. Henry Kissinger, Erik Schmidt e Daniel Huttenlocher scrivono sul <a href=\"https:\/\/www.wsj.com\/articles\/chatgpt-heralds-an-intellectual-revolution-enlightenment-artificial-intelligence-homo-technicus-technology-cognition-morality-philosophy-774331c6\">Wall Street Journal<\/a> che questa tecnologia \u00e8 capace di \u201c<em>transform the human cognitive process<\/em>\u201d e che presenta \u201c<em>a philosophical and practical challenge on a scale not experienced since the start of the Enlightenment<\/em>\u201d. In questo position paper vogliamo riportare la posizione della Societ\u00e0 Italiana per l\u2019Etica dell\u2019Intelligenza Artificiale riguardo alle tecnologie <em>Large Language Model<\/em> (LLM) su cui si basano ChatGPT, la nuova versione GPT-4 e gli altri sistemi con funzionalit\u00e0 simili.<\/p>\n\n\n\n<p>Vogliamo partire prima di tutto dall\u2019impatto che ChatGPT e gli altri LLM possono avere nel mondo della formazione. La possibilit\u00e0 che compiti a casa, elaborati o anche intere tesi siano scritte non dagli studenti ma da un LLM in <em>real time<\/em> ha suscitato un\u2019ondata di preoccupazione nel mondo delle scuole e dell\u2019universit\u00e0. Si stanno gi\u00e0 compilando le <a href=\"https:\/\/www.businessinsider.com\/list-here-are-the-exams-chatgpt-has-passed-so-far-2023-1?r=US&amp;IR=T\">liste degli esami<\/a> che ChatGPT permette di superare con successo. I testi prodotti dai LLM sono difficilmente identificabili dai sistemi antiplagio utilizzati per scoprire se uno studente ha fatto dei \u201ctaglia-incolla\u201d da materiale reperito su internet, in quanto i LLM producono un nuovo testo potenzialmente diverso da quelli su cui sono stati addestrati prendendoli dal web. OpenAI stessa si \u00e8 affrettata a produrre un sistema AI per riconoscere se un testo \u00e8 stato scritto dall\u2019AI, ma \u00e8 capace solo di scarse prestazioni.<\/p>\n\n\n\n<p>Non entriamo qui nell\u2019enorme dibattito su come ChatGPT possa diventare invece uno strumento didattico n\u00e9 vogliamo produrre raccomandazioni morali su come gli studenti dovrebbero evitare di usare ChatGPT per copiare.<\/p>\n\n\n\n<p>Vogliamo per\u00f2 evidenziare come nessuno (a nostra conoscenza) abbia fatto ancora notare che esiste un modo semplicissimo per sapere se un testo \u00e8 stato scritto da ChatGPT. Un modo che non richiede neanche l\u2019utilizzo di tecnologie AI. La soluzione non \u00e8 quindi chiedere a ChatGPT stessa se ha prodotto il testo, ma chiederlo a OpenAI. ChatGPT non ha memoria di quanto ha detto al di fuori di una singola conversazione. OpenAI invece come tutte le piattaforme web e i motori di ricerca tiene traccia nei suoi registri (<em>logfile<\/em>) di tutte le richieste degli utenti e di tutte le risposte fornite dal chatbot per migliorare il prodotto e per raccogliere informazioni su di noi da monetizzare. Certo per identificare il plagio da parte di studenti pi\u00f9 motivati nel copiare che fanno una parafrasi del testo ottenuto da ChatGPT occorrerebbe solo qualche semplice strumento di AI che vada a dare una misura della distanza dal testo prodotto da ChatGPT. Ma siamo sicuri che nella maggior parte dei casi basterebbe un semplice \u201cCTRL-F\u201d sul file di log di ChatGPT.<\/p>\n\n\n\n<p>OpenAI dovrebbe mettere a disposizione un sistema per verificare se un testo sia stato prodotto da ChatGPT, ma invece OpenAI non ha neanche rivelato la possibilit\u00e0 di crearlo.<\/p>\n\n\n\n<p>Un avvertimento per gli studenti che copiano tesi, che sono documenti pubblici: il vostro complice ChatGPT sa comunque che avete copiato. Come in un film di gangster, non potete dormire tranquilli: un giorno potrebbe cambiare i termini di servizio e divulgare l\u2019origine della vostra tesi. Per non parlare del fatto che i testi prodotti da ChatGPT possono essere oggetto di un <a href=\"https:\/\/openai.com\/blog\/march-20-chatgpt-outage\"><em>data breach<\/em>, come successo il 20 marzo<\/a>, e cadere in mani di malintenzionati che scoprono che avete copiato la tesi.<\/p>\n\n\n\n<p>Senza un tale strumento, vietare l\u2019utilizzo di ChatGPT, come fatto da alcune scuole e universit\u00e0, significa introdurre una norma che non pu\u00f2 essere applicata.<\/p>\n\n\n\n<p>La disponibilit\u00e0 di uno strumento di verifica che un testo non sia stato prodotto da un LLM \u00e8 fondamentale anche al di fuori del mondo della formazione. L\u2019editore di fantascienza <a href=\"https:\/\/www.theguardian.com\/technology\/2023\/feb\/21\/sci-fi-publisher-clarkesworld-halts-pitches-amid-deluge-of-ai-generated-stories\"><em>Clarkesworld<\/em><\/a> ha dovuto temporaneamente sospendere la possibilit\u00e0 di sottomettere contributi. Ma ancora pi\u00f9 importante sarebbe l\u2019esistenza di tale possibilit\u00e0 di verificare la provenienza di un testo da ChatGPT per evitare uno dei rischi pi\u00f9 gravi preconizzati dall\u2019introduzione dei LLM: la disinformazione. La creazione di bot online che vanno a corrompere il \u201cdiscorso pubblico\u201d far\u00e0 un salto di livello con sistemi che possono creare a basso costo una infinit\u00e0 di contributi di parte o \u201cfake\u201d, personalizzati in base alle informazioni disponibili sul singolo destinatario del messaggio, in quasi 100 lingue (oltre 1000 nel caso di Bard, l\u2019LLM di Google).<\/p>\n\n\n\n<p>Questo modo di procedere dei grandi player dell\u2019informatica non \u00e8 una novit\u00e0, l\u2019introduzione senza precauzioni di ChatGPT \u00e8 solo un altro esempio che rientra nella predizione fatta da Shoshana Zuboff nel celebre libro <a href=\"https:\/\/www.publicaffairsbooks.com\/titles\/shoshana-zuboff\/the-age-of-surveillance-capitalism\/9781610395694\/\"><em>The Age of Surveillance Capitalism<\/em><\/a> (2019); ogni volta che viene introdotta una nuova tecnologia parte un <em>Cycle of Dispossession<\/em> formato da 4 fasi: <em>incursion, habituation, adaptation, and redirection.<\/em><\/p>\n\n\n\n<p>Siamo gi\u00e0 entrati nella fase di <em>habituation<\/em>, dopo l\u2019incursione selvaggia nel mondo della scuola. Seguir\u00e0 l\u2019<em>adaptation<\/em> a seguito dei primi provvedimenti legislativi edulcorati dall\u2019attivit\u00e0 di lobbying dei magnati di Silicon Valley. Attendiamo con ansia la sorpresa della <em>redirection<\/em>.<\/p>\n\n\n\n<p>Partiamo quindi da questo semplice argomento per mostrare l\u2019enorme ipocrisia del mondo di Silicon Valley nel modo in cui introducono delle nuove tecnologie, senza prendersi le responsabilit\u00e0 sugli effetti che causano nella societ\u00e0.<\/p>\n\n\n\n<p>L\u2019ipocrisia emerge nel nome stesso dell\u2019azienda che ha creato e reso pubblico ChatGPT: <em>OpenAI<\/em>. Nata come una start-up \u201cnon-profit\u201d per promuovere la trasparenza sui sistemi AI, ha cominciato a porre ostacoli alla divulgazione dei propri codici sorgenti con il pretesto della loro pericolosit\u00e0, fino poi ad arrivare alla totale mancanza di trasparenza di quanto sta facendo (non conosciamo n\u00e9 gli algoritmi n\u00e9 i dati su cui sono stati addestrati i LLM, n\u00e9 come vengano utilizzati i dati forniti inconsapevolmente dagli utenti) e ad essersi praticamente trasformata in una societ\u00e0 privata finanziata da Microsoft.<\/p>\n\n\n\n<p>Non \u00e8 da sottovalutare infine il fatto che pur esistendo diversi altri LLM (Galactica di META, Bard di Google, ecc.), OpenAI sia stata la prima azienda a lanciare il cuore oltre l\u2019ostacolo e rendere pubblico l\u2019accesso a tutti gli interessati (in poco tempo centinaia di milioni di persone da cui ricava dati anche personali per migliorare le prestazioni di ChatGPT), nonostante i problemi chiaramente manifestati dal sistema: essendo una startup senza ancora <a href=\"https:\/\/www.corrierecomunicazioni.it\/digital-economy\/meta-sospende-galactica-fa-flop-il-motore-di-ricerca-ai\/\">un capitale reputazionale<\/a> da perdere e non essendo una <a href=\"https:\/\/time.com\/6254226\/alphabet-google-bard-100-billion-ai-error\/\">azienda quotata in borsa<\/a>, ha un atteggiamento diverso riguardo ai rischi.<\/p>\n\n\n\n<p>L\u2019ipocrisia di Silicon Valley non \u00e8 una novit\u00e0 (si pensi al recente salvataggio da parte dello stato dei conti correnti dei <em>libertarian<\/em> antistatalisti presso <em>Silicon Valley Bank<\/em>) ed \u00e8 accompagnata da una enorme campagna di marketing, di cui spesso i media si fanno promotori inconsapevoli.<\/p>\n\n\n\n<p>Ci dicono le vestali della tecnologia e dell\u2019inevitabilismo tecnologico che la preoccupazione del mondo della formazione nei confronti di ChatGPT sarebbe paragonabile a quella prodotta da altre innovazioni in passato quale l\u2019introduzione della calcolatrice tascabile negli anni \u201970: si sono sbagliati gli allora profeti dell\u2019atrofizzazione della nostra capacit\u00e0 cognitiva di fare calcoli e quelli che evidenziavano il possibile danno dell\u2019uso abusivo della calcolatrice per fare compiti a casa e verifiche a scuola. Ma chi fa una tale analogia non considera la differenza di contesto: una calcolatrice aveva un costo modesto ed era riproducibile facilmente da altre aziende. Nel caso dei LLM le capacit\u00e0 computazionali richieste sono in mano a pochi e la distanza fra le capacit\u00e0 computazionali delle aziende private in US e quelle in mano ai centri di ricerca pubblici \u00e8 di <a href=\"https:\/\/www.economist.com\/business\/2023\/01\/30\/the-race-of-the-ai-labs-heats-up?ppccampaignID=&amp;ppcadID=&amp;ppcgclID=&amp;utm_medium=cpc.adword.pd&amp;utm_source=google&amp;ppccampaignID=18151738051&amp;ppcadID=&amp;utm_campaign=a.22brand_pmax&amp;utm_content=conversion.direct-response.anonymous&amp;gclid=EAIaIQobChMI6ei8h5OI_gIVVaHVCh0UtgiOEAAYASAAEgI5pPD_BwE&amp;gclsrc=aw.ds\">diversi ordini di grandezza.<\/a><\/p>\n\n\n\n<p>Chi sottolinea i pericoli di una nuova tecnologia viene spesso accusato di essere contro il progresso e gli viene replicato che i pericoli dipendono dall\u2019uso che se ne fa. Nel caso dei LLM bisogna per\u00f2 prestare attenzione all\u2019entit\u00e0 del possibile pericolo, perch\u00e9 non riguarda solo singoli individui ma il livello della societ\u00e0 stessa, cosa che non capita con la maggior parte delle altre tecnologie. OpenAI stessa ne \u00e8 cosciente come appare dalla <a href=\"https:\/\/cdn.openai.com\/papers\/gpt-4-system-card.pdf\">system card di GPT-4<\/a>: \u201c<em>AI systems will have even greater potential to reinforce entire ideologies, worldviews, truths and untruths, and to cement them or lock them in<\/em>\u201d.<\/p>\n\n\n\n<p>Lo stesso tipo di ragionamento vale per il dibattito sul <a href=\"https:\/\/www.nytimes.com\/2023\/03\/28\/business\/economy\/jobs-ai-artificial-intelligence-chatgpt.html\">futuro dei posti di lavoro<\/a>: i LLM hanno la potenzialit\u00e0 di svolgere compiti intellettuali tipici dei \u201ccolletti bianchi\u201d, mentre fino a poco tempo fa si pensava fossero i lavori manuali quelli pi\u00f9 a rischio per via dell\u2019automazione robotica. L\u2019obiezione fatta spesso alla preoccupazione di una diminuzione dei posti di lavoro \u00e8 che in passato ogni automazione (ad es., l\u2019automobile) ha portato ad un aumento dei posti di lavoro. Nel caso dell\u2019AI per\u00f2 bisogna considerare che al cambiamento nel mondo del lavoro si accompagna un pi\u00f9 generale cambiamento economico e sociale, con un impatto sulla qualit\u00e0 del lavoro delle persone, con aumento delle disuguaglianze economiche, <a href=\"https:\/\/www.theguardian.com\/books\/2011\/apr\/02\/master-switch-tim-wu-review\">creazione di monopoli<\/a>, impatto sulla democrazia. Inoltre, la possibilit\u00e0 di replicare all\u2019infinito a costi limitati i sistemi AI, a differenza del mondo della robotica, \u00e8 un ulteriore elemento di novit\u00e0 che non era presente nelle evoluzioni tecnologiche precedenti.<\/p>\n\n\n\n<p>Il termine Intelligenza Artificiale, come ci ricorda Anthony Elliot, \u00e8 un figlio degli anni \u201950. Oggi forse non avremmo usato un termine simile: artificiale ha ormai una connotazione negativa e l\u2019AI, ci dice Kate Crawford in <a href=\"https:\/\/yalebooks.yale.edu\/book\/9780300264630\/atlas-of-ai\/\">Atlas of AI<\/a>, non \u00e8 neppure davvero artificiale. Nel caso di ChatGPT&amp;co si pensi al ruolo che hanno i \u201ccensori\u201d sottopagati che devono togliere tutte le <a href=\"https:\/\/time.com\/6247678\/openai-chatgpt-kenya-workers\/\">brutture<\/a> raccolte sul web per pochi spiccioli.<\/p>\n\n\n\n<p>La presunta intelligenza dei sistemi di machine learning alla base del LLM \u00e8 questione molto dibattuta.<\/p>\n\n\n\n<p>Prima di tutto, nei LMM manca completamente una nozione di verit\u00e0 e di connessione con la realt\u00e0: \u201cvivono\u201d in un mondo fatto puramente di parole, in accordo con quanto sostengono linguisti computazionali come Christopher Manning, fra i creatori della <em>Distributional semantics<\/em>. Assente del tutto \u00e8 la connessione (<em>grounding<\/em>) con la realt\u00e0 che a noi umani ci \u00e8 fornita dal nostro corpo, da cui dipendono strettamente le nostre capacit\u00e0 cognitive: il cosiddetto <em>embodiment<\/em>. E senza il corpo non stiamo neanche a parlare di emozioni.<\/p>\n\n\n\n<p>Inoltre, il linguaggio \u00e8 una manifestazione del pensiero e non viceversa ed ha una natura inerentemente relazionale, dover il significato emerge nel dialogo fra due persone e dall\u2019accordo che raggiungono su quanto viene comunicato.<\/p>\n\n\n\n<p>I LLM non sembrano tenere conto di alcune distinzioni base della nostra cognizione identificate dalla scienza cognitiva: la distinzione fra conoscenza\/intelligenza tacita ed esplicita e fra memoria semantica ed episodica. Per decenni l\u2019AI classica ha rincorso la possibilit\u00e0 di riprodurre le capacit\u00e0 dell\u2019intelligenza esplicita degli esseri umani: la capacit\u00e0 di ragionare logicamente, di avere una rappresentazione dichiarativa del mondo. L\u2019AI classica ha avuto pi\u00f9 problemi a riprodurre la conoscenza tacita, fra cui anche la capacit\u00e0 di comprendere o generare frasi in linguaggio naturale, nonostante lo sforzo dei linguisti computazionali. Con l\u2019avvento del deep learning si \u00e8 aperta la possibilit\u00e0 di riprodurre l\u2019intelligenza tacita: riconoscere immagini e voci, creare robot che imparano a muoversi da soli, e ora con ChatGPT rispondere a delle domande producendo testo di alta qualit\u00e0. Il problema \u00e8 che questi sistemi by-design non sono pensati per riprodurre anche le capacit\u00e0 logiche dell\u2019intelligenza esplicita. Analogamente, la memoria episodica degli esseri umani \u00e8 il mezzo per ricondurre una conoscenza all\u2019esperienza in cui si \u00e8 appresa tale conoscenza, nonch\u00e9 alle emozioni provate al momento. Tutto questo meccanismo \u00e8 lontano da ChatGPT che almeno nella versione attuale non riesce a ricostruire le fonti in base alle quali sta rispondendo.<\/p>\n\n\n\n<p>Fonti che per altro riguardano l\u2019universo mondo, nel bene e nel male: faremmo mai leggere ad una persona in et\u00e0 di formazione tutto quanto c\u2019\u00e8 sul web pure senza alcuna indicazione critica? Tutti gli <a href=\"https:\/\/www.ruhabenjamin.com\/race-after-technology\">orrori<\/a>, errori, distorsioni che si trovano online senza una adeguata \u201c<a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3442188.3445922\"><em>data curation<\/em><\/a>\u201d?<\/p>\n\n\n\n<p>I LLM riescono ad avere delle sorprendenti prestazioni dal punto di vista linguistico, pur non avendo la minima idea delle regole grammaticali. E\u2019 un risultato fenomenale, ma alieno rispetto a quanto fanno gli esseri umani, come ricorda Chomsky: la grammatica che sviluppiamo \u201c<em>can be understood as an expression of the innate, genetically installed \u2018operating system\u2019 that endows humans with the capacity to generate complex sentences and long trains of thought<\/em>\u201d.<\/p>\n\n\n\n<p>Infine, noi esseri umani non possiamo fare a meno di <a href=\"https:\/\/nymag.com\/intelligencer\/article\/ai-artificial-intelligence-chatbots-emily-m-bender.html\">attribuire che ci siano stati mentali<\/a> dietro le parole che qualcuno pronuncia (la cosiddetta \u201c<em>intentional stance<\/em>\u201d del filosofo Daniel Dennet). Invece, i LLM generano testi senza avere una mente, inducendoci per\u00f2 lo stesso a credere che abbiano credenze o provino emozioni che non hanno. Questa finta \u201cumanit\u00e0 sintetica\u201d \u00e8 fonte di rischi, specialmente quando non si sappia che a parlare sia una macchina.<\/p>\n\n\n\n<p>Una sola intelligenza artificiale (o comunque una manciata in futuro) che diventa la fonte principale di informazione, come lo \u00e8 diventato il motore di ricerca Google Search, ma con un suo unico punto di vista neanche specificato, introduce inoltre forti preoccupazioni riguardo al rischio di omologazione della conoscenza, come ha evidenziato <a href=\"https:\/\/www.repubblica.it\/tecnologia\/2023\/03\/22\/news\/unarma_di_omologazione_di_massa-393293649\/\">Guido Scorza<\/a>: \u201cIl dubbio \u00e8 che, senza rendercene conto, stiamo giocando con un\u2019arma di manipolazione e omologazione di massa dell\u2019opinione pubblica e della coscienza collettiva globale, almeno per il momento saldamente nelle mani di una manciata di Paperoni\u201d. L\u2019unicit\u00e0 del punto di vista \u00e8 anche un difetto di uno strumento pi\u00f9 tradizionale come Wikipedia, ma con ChatGPT il problema aumenta di grandezza per via della sua modalit\u00e0 interattiva.<\/p>\n\n\n\n<p>Non bisogna dimenticare inoltre l\u2019impatto ambientale della fase di addestramento dei LLM. A questa preoccupazione si risponde spesso con l\u2019argomento che le capacit\u00e0 di calcolo necessarie presto diminuiranno e con questo i costi per l\u2019ambiente. Questo controargomento ignora per\u00f2 il fatto che se anche diminuiranno i costi energetici dei sistemi attuali ci sar\u00e0 sempre ancora uno spazio ampio per creare modelli sempre pi\u00f9 grandi (ad es., per generare video anzich\u00e9 solo testi) e che aumenter\u00e0 di molto il numero di aziende che creeranno LLM anche se utilizzando risorse di calcolo minori di quelle necessarie oggi.<\/p>\n\n\n\n<p>Una questione spesso ignorata \u00e8 che pur essendo alcuni rischi che pongono i LLM simili a rischi gi\u00e0 esistenti nel presente, la numerosit\u00e0 potenzialmente quasi infinita di testo che possono creare i LLM cambia la natura del problema: una persona o anche un gruppo di persone che producono disinformazione \u00e8 un problema strutturalmente diverso da avere a disposizione una quantit\u00e0 enorme e replicabile di risorse che producono disinformazione. Un singolo artista che si ispira ad un\u2019opera di un collega \u00e8 un problema diverso da una macchina che pu\u00f2 produrre infinite variazioni ispirate ad un\u2019opera soggetta a diritto di autore. Come suggerisce lo scienziato cognitivo <a href=\"https:\/\/www.theatlantic.com\/technology\/archive\/2023\/03\/ai-chatbots-large-language-model-misinformation\/673376\/\">Gary Marcus<\/a> il legislatore deve prendere in considerazione l\u2019aspetto dimensionale, che trasforma questioni giuridiche ora gi\u00e0 regolate in nuovi problemi giuridici.<\/p>\n\n\n\n<p>Facciamo anche attenzione alla retorica che viene usata quando i grandi player parlano di AI. In una recente intervista Sam Altman, CEO di OpenAI, <a href=\"https:\/\/www.youtube.com\/watch?v=L_Guz73e6fw&amp;ab_channel=LexFridman\">dice<\/a> <em>\u201c[GPT] it&#8217;s buggy it doesn&#8217;t do a lot of things very well but neither did the very earliest computers<\/em>\u201d comparando due tecnologie incomparabili, o <a href=\"https:\/\/twitter.com\/sama\/status\/1599471830255177728?lang=en\">twitta<\/a> \u201c<em>i am a stochastic parrot, and so r u<\/em>\u201d andando a sminuire le peculiarit\u00e0 di noi esseri umani pur di giustificare le limitazioni dei sistemi AI attuali: il pappagallo stocastico \u00e8 un riferimento alla celebre critica che <a href=\"https:\/\/dl.acm.org\/doi\/10.1145\/3442188.3445922\">Benter, McMillan-Major, Gebru, Mitchell<\/a> hanno fatto gi\u00e0 3 anni fa ai LLM.<\/p>\n\n\n\n<p>Concordiamo con la necessit\u00e0 espressa da molti di una maggiore attenzione del mondo della ricerca verso la verifica dei rischi che pongono i sistemi AI che utilizzano enormi quantit\u00e0 di dati, raccolti anche in maniera legale secondo una normativa ormai obsoleta, ma in genere con scarsa consapevolezza da parte degli esseri umani che li cedono. Non concordiamo invece con richieste irrealistiche di una moratoria di sei mesi nello sviluppare nuovi sistemi, in quanto tutti i problemi sono gi\u00e0 presenti con la tecnologia attuale. Infine, non concordiamo il reiterato allarme verso un rischio insito nell\u2019AI di sorpassare le capacit\u00e0 umane e di mettere in futuro a rischio la nostra societ\u00e0, in quanto si tende a sottovalutare il ruolo che i grandi player dell\u2019AI hanno nel mettere <a href=\"https:\/\/www.dair-institute.org\/blog\/letter-statement-March2023\">a rischio gi\u00e0 ora<\/a> la nostra societ\u00e0 utilizzando l\u2019AI per rientrare dei loro immensi investimenti e per ottenere un profitto.<\/p>\n\n\n\n<p>Il documento tecnico stesso che accompagna la nuova evoluzione di ChatGPT, GPT-4, gioca a nostro avviso su questa ambiguit\u00e0, evidenziando problemi legati al presunto carattere \u201c<em>agentic<\/em>\u201d di tale sistema, la sua capacit\u00e0 di \u201c<em>long-term-planning<\/em>\u201d, \u201c<em>power seeking<\/em>\u201d: termini che tolti dal contesto dell\u2019<a href=\"https:\/\/arxiv.org\/abs\/2302.10329\">articolo<\/a> che li definisce diventano evocativi di pericoli lontani che allontanano l\u2019attenzione riguardo al potere che questi strumenti danno alle aziende che li hanno creati.<\/p>\n\n\n\n<p>Infine, facciamo nostro l\u2019<a href=\"https:\/\/www.humanetech.com\/podcast\/synthetic-humanity-ai-whats-at-stake\">appello<\/a> di Tristan Harris, fondatore del <a href=\"https:\/\/www.humanetech.com\/podcast\/synthetic-humanity-ai-whats-at-stake\"><em>Center for Humane Technology<\/em><\/a>, e Aza Raskin a tenere separati i modelli di business basati sull\u2019engagement degli utenti, propri dei social media attuali. Tali modelli sono infatti la causa dei danni prodotti alle <a href=\"https:\/\/www.theguardian.com\/technology\/2022\/sep\/30\/how-molly-russell-fell-into-a-vortex-of-despair-on-social-mediahttps:\/www.theguardian.com\/technology\/2022\/sep\/30\/how-molly-russell-fell-into-a-vortex-of-despair-on-social-media\">persone<\/a> e al discorso pubblico, della possibilit\u00e0 di manipolare i social media per fini politici danneggiando la democrazia, fino ad alimentare <a href=\"https:\/\/www.amnesty.it\/come-gli-algoritmi-di-facebook-hanno-promosso-la-violenza-contro-i-rohingya-in-myanmar-il-nostro-nuovo-rapporto\/\">genocidi<\/a>.<\/p>\n\n\n\n<p>Per Harris ChatGPT pu\u00f2 essere considerato una nuova frontiera dell\u2019interazione con i computer in quanto permette di costruire delle \u201c<em>synthetic relationship<\/em>\u201d (relazioni artificiali): siamo di fronte ad un cambiamento paradigmatico dato che abbiamo costruito delle tecnologie con cui possiamo creare delle relazioni uno a uno, anche emotive, anche intime, senza una mediazione. I LLM possono all\u2019interno di questa relazione manipolare l\u2019interlocutore, esibendo emozioni che non hanno per sembrare amici, rispondendo su tutto e inventando, non sapendo quale siano i limiti della realt\u00e0.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p>I social media si sono posti come intermediari nelle relazioni con altri esseri umani (i nostri amici sulle piattaforme), scegliendo i loro post da farci vedere fra la moltitudine che postano (e scegliendoli in base anche alla pubblicit\u00e0 da presentare all\u2019utente).<\/p>\n\n\n\n<p>Ora i LLM come ChatGPT possono sostituirsi direttamente alle persone per creare nuove relazioni dialogiche non solo informative ma anche emozionali e diventare una nuova dimensione di engagement da parte dei <a href=\"https:\/\/www.penguinrandomhouse.com\/books\/234876\/the-attention-merchants-by-tim-wu\/\">mercanti dell\u2019attenzione<\/a> e un nuovo territorio di estrazione di informazione su di noi dai capitalisti della sorveglianza, dati presi nell\u2019intimo di una conversazione e pi\u00f9 profondi di quelli prodotti dall\u2019osservazione del nostro comportamento come accade nell\u2019utilizzo del web o delle app.<\/p>\n\n\n\n<p>Nell\u2019era dei social media la corsa \u00e8 stata per competere per la nostra attenzione, per creare un lock-in di pi\u00f9 utenti possibili facendo leva sul <em>network effect<\/em>. Dato che gli spazi di questa competizione si stanno esaurendo i sistemi di LLM rischiano di diventare la nuova frontiera, tramite la costruzione di relazioni personali, per massimizzare l\u2019ingaggio degli utenti come base di un nuovo modello di business.<\/p>\n\n\n\n<p>Come la pubblicit\u00e0 ha gi\u00e0 inquinato il discorso intimo fra amici costituito dal <em>newsfeed<\/em> di loro <em>post<\/em>, auspichiamo che la nuova frontiera della monetarizzazione di questi strumenti di relazioni artificiali non sia quello di fare pubblicit\u00e0 in maniera pi\u00f9 o meno occulta indirizzando il discorso verso obiettivi non conosciuti all\u2019utente.<\/p>\n\n\n\n<p>La capacit\u00e0 di entrare in relazione con altri esseri umani \u00e8 una delle nostre caratteristiche fondamentali. Dare questo potere ad una macchina vuol dire creare uno strumento che ha possibilit\u00e0 di influenzarci molto pi\u00f9 profonde delle altre tecnologie. Tali strumenti, quindi, non possono essere messi a disposizione senza che prima vengano testati adeguatamente, cos\u00ec come succede da inizio del \u2018900 ad esempio con le <em>authority<\/em> che regolano l\u2019introduzione di nuovi principi farmacologici.<\/p>\n\n\n\n<p>In questo senso i LLM presentano un pericolo diverso dai sistemi per la creazione di immagini che hanno una dimensione relazionale minore, anche se sono ancora pi\u00f9 pericolosi dal punto di vista della disinformazione data l\u2019immediatezza dell\u2019impatto di una immagine contraffatta. Forse le problematiche convergeranno quando i modelli generativi che creano video saranno pi\u00f9 sviluppati, e il dialogo in chat si potr\u00e0 accompagnare ad una relazione sintetica in \u201cvideoconferenza\u201d.<\/p>\n\n\n\n<p>Concludiamo questo position paper unendoci all\u2019appello <a href=\"https:\/\/www.dair-institute.org\/blog\/letter-statement-March2023\"><em>Statement from the listed authors of Stochastic Parrots on the \u201cAI pause\u201d letter<\/em><\/a><em> <\/em>di Timnit Gebru, Emily M. Bender, Angelina McMillan-Major, Margaret Mitchell:<\/p>\n\n\n\n<p><em>It is indeed time to act: but the focus of our concern should not be imaginary &#8220;powerful digital minds.&#8221; Instead, we should focus on the very real and very present exploitative practices of the companies claiming to build them, who are rapidly centralizing power and increasing social inequities.<\/em><\/p>\n\n\n\n<p>21\/04\/2023<\/p>\n","protected":false},"excerpt":{"rendered":"<p>SIpEIA prende posizione su ChatGPT e gli altri Large Language Model sottolineando i rischi che nascono non dalla tecnologia ma dal fatto che siano prodotti commerciali con un modello di business non ancora chiaro. (versione pdf) Abstract La Societ\u00e0 Italiana per l\u2019Etica dell\u2019Intelligenza Artificiale (SIpEIA) vuole evidenziare i rischi introdotti da ChatGPT e GPT-4 di <a href=\"https:\/\/sipeia.it\/?page_id=305&#038;lang=en\" class=\"more-link\">[&hellip;]<\/a><\/p>\n","protected":false},"author":2,"featured_media":310,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"_links":{"self":[{"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/pages\/305"}],"collection":[{"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/sipeia.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=305"}],"version-history":[{"count":3,"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/pages\/305\/revisions"}],"predecessor-version":[{"id":318,"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/pages\/305\/revisions\/318"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sipeia.it\/index.php?rest_route=\/wp\/v2\/media\/310"}],"wp:attachment":[{"href":"https:\/\/sipeia.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=305"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}