Che cose l’etica dell’IA? Principi e principali problemi di essa
L’etica dell’IA è un campo multidisciplinare che studia come ottimizzare l’impatto benefico di essa, minimizzando i rischi ed esiti negativi.

Iniziamo però, ad elencare ciò che riguarda i suoi principi fondamentali. Dal Belmont Report ne emergono tre che servono da guida per la progettazione di esperimenti e algoritmi:
- Rispetto delle persone: Questo principio riconosce l’autonomia delle persone e sostiene l’aspettativa che i ricercatori proteggano le persone con un’autonomia ridotta, che potrebbe essere dovuta a una serie di circostanze come malattie, disabilità mentali, età. Questo principio tocca principalmente l’idea di consenso. Gli individui dovrebbero essere consapevoli dei potenziali rischi e benefici di qualsiasi esperimento di cui fanno parte e dovrebbero essere in grado di scegliere di partecipare o rinunciare in qualsiasi momento prima e durante l’esperimento.
- Beneficenza: Il principio di beneficenza prende spunto dall’etica sanitaria, dove i medici fanno un giuramento di “non nuocere”. Questa idea può essere applicata all’IA, dove gli algoritmi possono amplificare i pregiudizi su razza, genere, tendenze politiche, ecc., nonostante l’intenzione di fare del bene e migliorare un determinato sistema.
- Giustizia: Questo principio affronta questioni come l’equità e l’uguaglianza. Ma chi dovrebbe trarre vantaggio dalla sperimentazione e dal machine learning? Il Belmont Report offre cinque modi per distribuire oneri e vantaggi, ovvero:
- Equa ripartizione
- Esigenza individuale
- Impegno individuale
- Contributo sociale
- Merito

Non è solo un bene…
Ci sono diversi problemi riguardanti le tecnologie dell’IA nel mondo reale, alcune di queste includono:
- Foundation model e IA generativa
-Il rilascio della piattaforma ChatGpt nel 2022 ha segnato una svolta per l’IA, visto che le capacità di questo chatbot hanno offerto un’infinità di possibilità su ciò che l’IA ci può offrire e i modi in cui può essere applicata.
-ChatGpt e altri strumenti simili si basano su foundation model, ovvero modelli su larga scala che vengono addestrati su dati non etichettati utilizzando “l’auto supervisione”. Tutto ciò però consente ad essi di applicare in modo rapido ciò che apprendono nei vari contesti, il che li rende altamente adattabili e in grado di eseguire una grande varietà di attività.
-Tuttavia ci sono molti problemi e preoccupazioni etiche intorno ai foundation model che sono comunemente riconosciuti nell’industria tecnologica, come i bias, la generazione di contenuti falsi, la mancanza di spiegabilità, l’uso improprio e l’impatto sociale. Molte di queste questioni sono rilevanti per l’IA in generale, ma assumono una nuova urgenza alla luce della potenza e della disponibilità dei foundation model.
Impatto sui posti di lavoro
-Anche se la percezione pubblica dell’intelligenza artificiale sia incentrata sulla perdita di posti di lavoro, questa preoccupazione dovrebbe essere riformulata. Ma vedremo che la domanda di mercato per alcune posizioni di lavoro cambierà.