Etica in azienda, l’AI è un’arma contro i bias?

etica in aziendaTre settimane fa abbiamo parlato di un’esperienza di recruiting in cui lo screening iniziale dei CV dei candidati è stato affidato a un algoritmo di intelligenza artificiale. Non era la prima volta che affrontavamo la questione, e una delle principali domande che l’argomento suscita continua ad essere: fino a che punto l’AI riesce ad essere etica e ad operare senza essere influenzata da alcun bias?

A tal proposito, il Capgemini Research Institute ha di recente pubblicato il report AI and the ethical conundrum: how organizations can build ethically robust AI systems and gain trust, secondo il quale le sfide di carattere etico saranno centrali per le aziende che vogliono consolidare la propria credibilità e affidabilità agli occhi di tutti gli stakeholder.

Etica in azienda: idee chiare, risultati scarsi

Stando a quanto rilevato da Capgemini, benché le aziende rivelino una maggiore consapevolezza in tema di etica, non si registrano significativi passi avanti nell’adozione di misure per la fairness (imparzialità) e l’auditability (verificabilità) dei sistemi aziendali di intelligenza artificiale. I livelli di trasparenza, inoltre, sono scesi negli ultimi due anni dal 73% al 59%, nonostante il 58% delle organizzazioni si sia impegnato nella sensibilizzazione dei dipendenti riguardo ai potenziali problemi connessi a un utilizzo scorretto dell’AI.

AI, bias e responsabilità etica

Un altro tema indagato da Capgemini è quello dei bias nei sistemi basati su intelligenza artificiale: dal momento che le applicazioni di questi ultimi riguardano un ventaglio sempre più ampio di processi e attività aziendali, è fondamentale saper garantire relazioni positive tra AI e persone. È emerso, tuttavia, che nel 65% dei casi i dirigenti sono a conoscenza di problemi connessi a bias discriminatori all’interno dei sistemi di artificial intelligence.

Considerando invece la possibilità di affidare la responsabilità in materia di intelligenza artificiale etica a una figura aziendale ben precisa, solo il 53% delle organizzazioni presenta al proprio interno un ruolo dedicato, come per esempio il chief ethics officer. In ogni caso, i leader delle funzioni business e di quelle tecnologiche devono essere pienamente responsabili dei risultati etici delle applicazioni dell’AI.

Governance etica

La necessità di prestare maggiore attenzione alla dimensione etica in azienda si connette anche alla presenza di un quadro regolamentare più stringente, come quello emanato dalla Commissione Europea per delineare i principi etici chiave che dovrebbero essere utilizzati per lo sviluppo delle applicazioni di AI.

Secondo Capgemini, le azioni chiave da implementare a livello di leadership, governance e pratiche interne per costruire un sistema di AI eticamente solido sono 7:

  • delineare chiaramente lo scopo dei sistemi di AI e valutarne l’impatto potenziale complessivo;
  • implementare in modo proattivo l’AI a beneficio della società e dell’ambiente;
  • incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di AI;
  • aumentare la trasparenza con l’aiuto di strumenti tecnologici;
  • umanizzare l’esperienza e garantire la supervisione umana dei sistemi di AI;
  • garantire la robustezza tecnologica dei sistemi di AI;
  • proteggere la privacy delle persone, responsabilizzandole e incaricandole delle interazioni con l’AI.

«Dato il suo potenziale, l’uso etico dell’AI dovrebbe chiaramente garantire l’assenza di danni alle persone e la piena responsabilità individuale nel caso in cui le cose non funzionassero come previsto. C’è inoltre la concreta opportunità di perseguire in modo proattivo il benessere ambientale e sociale. L’AI è una tecnologia innovativa che ha il potere di determinare progressi di vasta portata in tutti i settori di attività, così come nella società e nell’ambiente» ha dichiarato Andrea Falleni, amministratore delegato di Capgemini in Italia. «Invece di temere l’impatto dell’AI sugli esseri umani e sulla società, è possibile indirizzarla verso la lotta attiva ai pregiudizi contro le minoranze, anche correggendo i bias umani presenti oggi nelle nostre società. Ciò significa che le organizzazioni governative e non, che possiedono competenze in termini di AI, ricchezza di dati e che si impegnano a garantire il benessere della società e dell’ambiente, devono farsi carico di una maggiore responsabilità nell’affrontare queste tematiche a beneficio delle società attuali e future, il tutto nel rispetto della trasparenza e dell’accountability».

COMMENTI

WORDPRESS: 0
DISQUS: