{"id":5006,"date":"2024-02-27T18:11:31","date_gmt":"2024-02-27T16:11:31","guid":{"rendered":"https:\/\/eviso.ai\/?p=5006"},"modified":"2024-03-14T13:37:41","modified_gmt":"2024-03-14T11:37:41","slug":"rassegna-scintille-tech-il-primo-evento-dedicato-allintelligenza-artificiale-etica","status":"publish","type":"post","link":"https:\/\/eviso.ai\/fr\/rassegna-scintille-tech-il-primo-evento-dedicato-allintelligenza-artificiale-etica\/","title":{"rendered":"Rassegna \u201cScintille.tech\u201d: il primo evento dedicato all\u2019Intelligenza Artificiale etica"},"content":{"rendered":"<p>Come funziona davvero l\u2019AI? Perch\u00e9 e in che modo i dati giocano un ruolo fondamentale nello sviluppo di algoritmi etici? Quale impatto avr\u00e0 il regolamento europeo sull\u2019AI?<\/p>\n<p>Con il primo evento della rassegna <em><strong>Scintille.tech<\/strong><\/em>, <strong><em>ETIC-AI: Gli ingredienti di un&rsquo;AI responsabile<\/em><\/strong>, cercheremo di rispondere a queste domande attraverso la voce e l\u2019esperienza di Shalini Kurapati e Luca Gilli, entrambi co-founder e rispettivamente CEO e CTO della startup <em><strong><a href=\"https:\/\/www.clearbox.ai\/\" target=\"_blank\" rel=\"noopener\">Clearbox AI<\/a><\/strong><\/em>.<\/p>\n<p>L\u2019appuntamento \u00e8 <strong>marted\u00ec 26 marzo<\/strong> alle <strong>ore 18<\/strong> presso il <strong>Monastero della Stella<\/strong> di Saluzzo. L&rsquo;accesso \u00e8 gratuito su prenotazione: per registrarsi \u00e8 possibile compilare il modulo <a href=\"https:\/\/bit.ly\/scintille-tech-26-marzo\" target=\"_blank\" rel=\"noopener\"><strong>qui<\/strong><\/a> o mandare una mail a <strong>eventi@eviso.it<\/strong>.<\/p>\n<h2><strong>Il ruolo dei dati fondamentale dei dati nell&rsquo;intelligenza artificiale etica<\/strong><\/h2>\n<p>L&rsquo;Intelligenza Artificiale, ormai entrata nella nostra vita al punto da non percepirne la presenza, \u00e8 una potente combinazione di algoritmi e, soprattutto,\u00a0di\u00a0<strong>dati<\/strong>\u00a0alimentati da un&rsquo;infrastruttura computazionale. Ogni step della catena di approvvigionamento dei dati, dalla raccolta all\u2019inserimento nei modelli AI, comporta diverse <strong>decisioni<\/strong>, <strong>pregiudizi<\/strong>, <strong>errori<\/strong> e <strong>problemi di qualit\u00e0<\/strong>.<\/p>\n<p>Ad esempio, se i dati sono storici, di scarsa qualit\u00e0 o sbilanciati possono portare con s\u00e9 il rischio di perpetuare <strong>bias<\/strong> nei confronti di gruppi, etnie o generi. Proprio come uno chef di fama mondiale pu\u00f2 produrre piatti eccezionali solo con ingredienti di prima scelta, i modelli di IA performano bene solo se si basano su un <strong>numero di dati sufficiente e di qualit\u00e0<\/strong>.<\/p>\n<p>Lo speech di <strong>Kurapati<\/strong> in particolare ci aiuter\u00e0 a capire di quali aspetti dell\u2019AI le aziende devono essere<strong> consapevoli<\/strong> prima di integrarla nei propri processi, mettendo in evidenza il ruolo della <em><strong>Data-Centric AI<\/strong><\/em> e le <strong>best practice<\/strong> per utilizzare l\u2019IA in modo <strong>responsabile<\/strong> e altamente <strong>performante<\/strong>.<\/p>\n<h2>La prospettiva di un data scientist sull&rsquo;<i>AI Act<\/i><\/h2>\n<p>Il nuovo <a href=\"https:\/\/data.consilium.europa.eu\/doc\/document\/ST-5662-2024-INIT\/en\/pdf\" target=\"_blank\" rel=\"noopener\"><em><strong>European AI Act<\/strong><\/em><\/a> introduce importanti normative per la gestione dell&rsquo;intelligenza artificiale, con un focus sui sistemi ad alto rischio. Questo talk analizza i requisiti di conformit\u00e0 e le linee guida tecniche previste dalla legge dal punto di vista di un data scientist. Verranno discussi aspetti come la robustezza, l&rsquo;accuratezza e il controllo umano, con particolare attenzione alle tecniche di interpretabilit\u00e0. Sar\u00e0 presentato un caso di studio pratico basato su Python, che dimostra come tradurre i requisiti normativi in test per un modello di machine learning nel settore finanziario. Al termine del talk, i partecipanti avranno una comprensione pratica delle implicazioni della nuova legge per lo sviluppo di sistemi di intelligenza artificiale.<\/p>\n<h2><strong>Gli ospiti della serata<\/strong><\/h2>\n<p><strong>Shalini Kurapati<\/strong> \u00e8 un&rsquo;imprenditrice, ricercatrice, speaker e formatrice nel campo del \u00ab\u00a0Data-Centric AI\u00a0\u00bb e \u00ab\u00a0Responsible AI\u00a0\u00bb. \u00c8 co-founder di Clearbox AI, una startup di dati sintetici a Torino che ha ricevuto il premio WomeTechEU dalla Commissione europea come la migliore delle 50 startup deeptech guidate da una donna. La sua esperienza si colloca all&rsquo;intersezione tra tecnologia, politica e gestione. Shalini Kurapati ha conseguito un dottorato di ricerca presso la Delft University of Technology (Paesi Bassi). \u00c8 specializzata in questioni di trasparenza, privacy e correttezza lungo tutto il ciclo di vita dei dati ed \u00e8 anche Certified Informational Privacy Professional\/Europe (CIPP\/E) con una conoscenza comprovata del GDPR e delle leggi europee sulla e-Privacy. Si identifica come indo-piemontese e trascorre il suo tempo libero alla scoperta dei sentieri alpini, della cultura e del cibo del Piemonte.<\/p>\n<p><strong>Luca Gilli<\/strong> \u00e8 il co-fondatore di Clearbox AI. Ha conseguito un dottorato in matematica computazionale presso l&rsquo;Universit\u00e0 di Tecnologia di Delft. Ha lavorato come consulente di ricerca e responsabile dello sviluppo software per un&rsquo;azienda di consulenza per oltre 5 anni nei Paesi Bassi, servendo clienti da tutto il mondo. L&rsquo;esperienza di Luca si concentra sulla quantificazione dell&rsquo;incertezza, sull&rsquo;intelligenza artificiale generativa e sulla valutazione dei modelli di machine learning.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Appuntamento marted\u00ec 26 marzo alle ore 18 con gli ospiti Shalini Kurapati e Luca Gilli.<\/p>\n","protected":false},"author":5,"featured_media":5022,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[50],"tags":[],"class_list":["post-5006","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news"],"_links":{"self":[{"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/posts\/5006","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/comments?post=5006"}],"version-history":[{"count":7,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/posts\/5006\/revisions"}],"predecessor-version":[{"id":5118,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/posts\/5006\/revisions\/5118"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/media\/5022"}],"wp:attachment":[{"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/media?parent=5006"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/categories?post=5006"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/eviso.ai\/fr\/wp-json\/wp\/v2\/tags?post=5006"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}