Panel Società e democrazia
L’intelligenza artificiale sta cambiando il modo in cui prendiamo decisioni, ci informiamo e partecipiamo alla vita collettiva. Tra le diverse aree tematiche cui il Convegno SIpEIA 2026 sarà dedicato, quella su Società e Democrazia apre un dibattito attorno ad alcuni punti di straordinaria rilevanza per lo spazio pubblico.
Una prima questione riguarda chi controlla davvero l’IA. Oggi i sistemi più potenti sono nelle mani di poche grandi aziende e di alcuni Stati, creando uno squilibrio che rischia di concentrare il potere decisionale lontano dai cittadini. Ma c’è un’alternativa: immaginare regole condivise dove le comunità locali, le istituzioni pubbliche e la società civile abbiano voce in capitolo su come questi strumenti vengono progettati e utilizzati. L’idea è semplice quanto rivoluzionaria: rendere la governance dell’IA un processo aperto, dove le scelte tecniche non siano imposte dall’alto ma negoziate democraticamente, tenendo conto dei bisogni reali delle persone e dei territori. Si tratta dunque di riscoprire e rivalutare il ruolo delle persone nell’IA, per parafrasare il titolo del Keynote Speech che il prof. Daniel Innerarity (AI and Democracy Chair – EUI) terrà in apertura della seconda giornata del convegno.
La seconda questione tocca il cuore della nostra vita in società: come si formano l’opinione pubblica e il dibattito collettivo. I social media e i motori di ricerca basati sull’IA non si limitano a mostrarci contenuti, ma decidono quali notizie vediamo, quali voci ascoltiamo, quali temi entrano nell’agenda pubblica. Questo può creare “bolle informative” dove il dibattito si impoverisce. Eppure, l’IA potrebbe fare l’opposto: aiutarci a scoprire prospettive diverse, rendere visibili voci marginalizzate, ampliare anziché restringere lo spazio del confronto. Serve però che questi sistemi siano trasparenti e che mantengano uno spazio per il dissenso e la pluralità.
La terza questione riguarda la nostra autonomia di pensiero. Quando chiediamo consiglio a un sistema di IA su questioni morali, quando accettiamo senza verificare le informazioni che ci fornisce, quando lasciamo che algoritmi decidano cosa è vero o giusto, rischiamo di delegare la nostra capacità critica. Il punto non è rifiutare questi strumenti, ma progettarli (e utilizzarli) in modo che ci aiutino a pensare meglio, non al posto nostro. Un’IA che ammette i propri limiti, che ci invita a verificare, che preserva il diritto al dubbio e alla riflessione personale può diventare un’alleata preziosa per cittadini consapevoli.
Questi tre fronti disegnano una possibilità concreta: costruire sistemi di IA che rafforzino, anziché indebolire, la nostra capacità di partecipare, decidere insieme e mantenere vivo il respiro democratico delle nostre società.
Luca Tenneriello
