Abstract
Il termine Intelligenza artificiale (“AI”) si riferisce alla disciplina che si occupa dello sviluppo di sistemi software che sono in grado di agire nella dimensione fisica o virtuale in modo da percepire l’ambiente che li circonda, di acquisire e interpretare dati, ragionare sulle conoscenza acquisite e formulare decisioni basate sulle evidenza raccolte, sulle migliori azioni da svolgere allo scopo di raggiungere il proprio obiettivo. L’intelligenza artificiale è un’opportunità senza precedenti per incrementare la produttività del lavoro e per consentire progressi verso lo sviluppo sostenibile. Allo stesso tempo vi è a consapevolezza del fatto che l’AI può, se utilizzate in modo incauto, generare notevoli rischi per la società: possibilità di esclusione e discriminazione di fasce sociali, la manipolazione dell’opinione pubblica (c.d. deepfakes). Inseguire la tecnologia per un policymaker è spesso una scelta perdente, in quanto ogni regola prescrittiva non può che diventare obsoleta in poco tempo. In questo contesto il tema etico di AI sfocia inevitabilmente in un dibattito sull’affidabilità della stessa tecnologia, basandosi sulla necessità di proteggere i diritti fondamentali dell’individuo e allo stesso tempo orientandosi allo sviluppo dell’economia digitale.
A chi si rivolge
Ai consulenti privacy, DPO - Data Protection Officer, agli addetti alla gestione dei dati personali e chiunque voglia formarsi sul tema.
Programma del corso:
Rapporto tra uomo e macchina, contratto sociale e sviluppo sostenibile.
Quadro normativo e i diritti fondamentali dell’individuo
Importanza dei dati personali e il machine learning
I rischi dell’AI: violazione dei diritti fondamentali, attacchi informatici, manipolazione dell’opinione pubblica (fake news), diffusione di notizie false ecc