Intelligenza artificiale, perché fa così paura? Tutto quello che c’è da sapere

Cosa è l'intelligenza artificiale, a cosa serve e come funziona. Qualcuno dice che è più pericolosa della bomba atomica ma è proprio così?

Un pericolo più rischioso della bomba atomica. Una macchina in grado di svolgere la maggior parte dei lavori umani. Un algoritmo in grado di decidere per noi. Sono tante le definizioni apocalittiche accostate all’Intelligenza artificiale, la tecnologia già diffusa in molti ambiti delle nostre vite con un misto di fascinazione e scetticismo. Ma cos’è l’intelligenza artificiale? E perché la temiamo? Abbiamo provato a rispondere con l’aiuto di Giovanni Comandè, docente ordinario di Diritto privato comparato ed esperto di Intelligenza artificiale.

Che cos’è l’intelligenza artificiale?

“L’intelligenza artificiale è un’intelligenza collettiva. È come se avessimo la possibilità di unire insieme più cervelli: l’intelligenza artificiale è un super-cervello che normalmente sa fare molto bene una cosa sola. Ma per nascere e funzionare ha bisogno di alcuni ingredienti: i dati, la capacità computazionale (la capacità di leggere e analizzare i dati) e infine la capacità di archiviazione (conservare i dati elaborati). Si tratta di un processo già ideato nei primi anni del Novecento”.

Qual è la grande novità dell’intelligenza artificiale?

“Rispetto alle macchine elaborate in precedenza, programmate per eseguire un compito, l’Ai è in grado di trovare da sola la soluzione per svolgere quel compito, trovando informazioni nascoste nei dati. Grazie al machine learning, i software imparano da soli a fare alcune cose: l’intelligenza artificiale trova le informazioni che le servono per uno specifico scopo. Si tratta dell’apprendimento automatico che è alla base dell’intelligenza artificiale. Con l’automazione del secolo scorso il traguardo era stato programmare una macchina perché, dato un comando, fosse in grado di eseguire un compito come avvitare un bullone. Oggi, con l’Ai, è la stessa macchina a capire come deve svolgere il compito che le è stato assegnato”.

Un esempio: l’applicazione dell’AI in ambito medico

“Per capire come funziona l’Intelligenza artificiale, possiamo ipotizzare di applicarla in ambito medico. Per capire se una macchia della pelle è un tumore benigno o maligno, abbiamo la possibilità, attraverso l’intelligenza artificiale, di mettere insieme la conoscenza dei medici che studiano i tumori della pelle. Attingendo ai loro studi e alla catalogazione dei referti, l’Ai, come se fosse un super-medico, potrebbe presentarci poi il suo parere sull’immagine mostrata. Per questo parliamo di intelligenza collettiva: perché è attraverso la condivisione delle esperienze collettive che l’Ai impara a distinguere, catalogare e valutare, per esempio, le varie immagini di tumori della pelle. Noi forniamo le indicazioni, e l’Ai trova come collegarle. L’intelligenza artificiale esteriorizza le competenze per raggrupparle in un luogo virtuale fruibile. Le scelte sono prese su base statistica, ma chiediamo all’Ai di spiegare anche i fattori e le variabili che le hanno fatto dare quella risposta”.

L’intelligenza artificiale è da condannare?

“Visto che l’Ai impara dai dati che le diamo per apprendere, se le diamo in pasto dei dati carichi di pregiudizi ecco che imparerà ad avere pregiudizi. Quindi se chiedessimo ad un motore di ricerca di mostrarci foto di un amministratore delegato, quasi sicuramente ci mostrerà un uomo e per di più bianco (la ricerca va fatta in inglese per usare una lingua gender neutral). Questo vuol dire che l’Ai discrimina? Non esattamente, perché l’Ai non dà giudizi, ma sono i nostri comportamenti ad essere spesso discriminatori. L’Ai basa le sue risposte sui dati. Potremmo sintetizzare dicendo: dimmi i tuoi dati e ti dirò chi sei”.

Allora perché si dice che l’AI potrebbe essere rischiosa?

“La paura esiste ed è legittima. Il problema non sono le macchine, ma il fatto che deleghiamo alle macchine le nostre scelte. Negli anni Ottanta i sistemi di controllo automatico dell’Unione Sovietica erano programmati per rispondere immediatamente a un attacco nucleare. In caso di attacco nucleare sul territorio russo, il sistema avrebbe reagito preventivamente. Nel settembre del 1983 il sistema radar dell’Urss rilevò un lancio di missili balistici dalle basi Usa. Ma l’ufficiale della difesa aerea Petrov fermò la risposta, ritenendo che si trattasse di un errore. Ed effettivamente si trattava di un falso allarme dovuto all’equinozio di autunno: i riflessi solari sulle nubi erano stati confusi con dei lanci di missili. Grazie a Petrov, che capì l’inganno della macchina, non abbiamo avuto una guerra nucleare. Oggi corriamo il rischio di riporre eccessiva fiducia nell’intelligenza artificiale. Dobbiamo sì fidarci, ma anche governare l’intelligenza artificiale come ogni altra tecnologia”.

Cos’è l’automation bias?

“L’atteggiamento dell’essere umano nei confronti dell’Ai è quello di chi è consapevole che non potrà mai avere la stessa capacità di calcolo, e quindi si chiede: chi sono io per dire che l’Intelligenza artificiale sbaglia? Ma in realtà l’Ai è programmata per fare una sola cosa, e farla molto bene. Nel caso dell’analisi dei tumori, è vero che l’Ai può essere un prezioso strumento per l’analisi delle immagini, ma poi è necessario un controllo approfondito di un medico, una supervisione umana. Sono strumenti già utilizzati negli ospedali, nelle strutture, nelle amministrazioni”.

Dominare e non essere dominati, dunque?

“Come per tutte le tecnologie, la scelta è se governarle o esserne governati. Ma le tecnologie di per sé sono neutre. Un fucile può essere usato come strumento di caccia per sfamare il villaggio o strumento per uccidere qualcuno. Sono solo strumenti, a cui però non dobbiamo affidare tutte le nostre scelte. E che dobbiamo utilizzare con molta attenzione”. – Fonte www.dire.it –

- Pubblicità -
Redazione
Redazione
Giornale digitale fondato nel 2022 con l'intento di offrire al territorio "Una voce oltre la notizia". Nasce dall'esigenza di un gruppo di giornalisti ed esperti di comunicazione di creare un canale di informazione attendibile, laico e indipendente che dia voce ai cittadini, alle imprese, ai lavoratori, agli studenti!

CORRELATI
ALTRI ARTICOLI

Formia – Lunedì 29 parte la campagna di vigilanza sul conferimento dei rifiuti

Una lotta costante che rappresenta uno degli impegni principali da parte del Comune di Formia con un attento monitoraggio a 360°

Mobilità e reggenze dei Dirigenti scolastici, USR Lazio conclude le operazioni

Il Direttore Generale dell'Ufficio Scolastico Regionale per il Lazio, Anna Paola Sabatini, ha espresso soddisfazione per la conclusione

Sabaudia – Domenica senso unico su via Lungomare per il Sunset Jazz

Tale misura non riguarderà le navette del servizio pubblico, i mezzi di soccorso, antincendio e i veicoli comunque autorizzati

Granchi blu, in arrivo il bando da un milione di euro per smaltire quelli invenduti

Le imprese potranno presentare domande di contributo per le spese sostenute per il trasporto e lo smaltimento

Sicurezza sul lavoro, Schiboni: “Primo step per la definizione del piano strategico regionale”

"Nell’atto, inoltre, si individua il diritto alla salute e sicurezza sul lavoro come priorità del sistema territoriale"

Confcommercio Lazio Sud, approvato il rendiconto 2023

Il Presidente Acampora: “Soddisfatto per gli importanti risultati a sostegno del tessuto economico e sociale”
- Pubblicità -

Condividi sui social

- Pubblicità -

Più letti

- Pubblicità -
- Pubblicità -