Nyheter

Organisationer måste proaktivt arbeta med etik inom AI för att få allmänhetens förtroende

Den etiska användningen av AI är grundläggande för att vinna människors förtroende, visar en ny studie från Capgemini Research Institute. Organisationer som vill utnyttja fördelarna med AI kommer att granskas av samtliga av företagets intressenter, och dessa kommer att att belöna eller straffa olika beteenden. Undersökningen visar att de skulle vara mer lojala mot, köpa mer från och vara mer positivt inställda till organisationer vars arbete inom AI anses vara etiskt.

Studien“Why addressing ethical questions in AI will benefit organizations” frågade 1 580 chefer från stora organisationer i 10 länder och över 4 400 konsumenter i sex länder.

Nedan sammanfattas några av de viktigaste resultaten:

Företag som använder AI på ett etiskt sätt kommer att belönas:

Bland de undersökta konsumenterna skulle 62% ha ett större förtroende för ett företag vars AI-lösning de uppfattade som etisk. 61% skulle dessutom tala om detta för sina närmaste vänner och familj, 59% sa att de skulle ha högre lojalitet mot företaget och 55% skulle köpa fler produkter och ge högre betyg och positiv feedback på sociala medier. Och sett från andra hållet; när AI leder till etiska problem hotar det både rykte och resultat: 41% svarade att de skulle klaga om en AI-interaktion resulterade i etiska problem, 36% skulle kräva en förklaring och 34% skulle helt sluta ha med företaget i fråga att göra.

Etiska problem med AI-system har både observerats och upplevts:

Chefer i nio av tio organisationer anser att etiska problem har uppstått vid användningen av AI-system under de senaste 2-3 åren. Till exempel med insamling av personuppgifter utan samtycke i sjukvården, och när det gäller maskinledda beslut inom bank och försäkring. Cheferna angav som skäl trycket att snabbt genomföra AI, misslyckandet med att överväga etik när man konstruerade AI-systemen och brist på resurser när det gäller AI-system.

Konsumenter, anställda och medborgare är oroliga för etiska problem kopplade till AI och vill ha någon form av reglering.

Nästan hälften av de svarande (47%) anser att de har upplevt minst två olika användningar av AI som resulterat i etiska problem under de senaste 2- 3 åren. De flesta (75%) sa att de vill ha mer öppenhet när de använder en AI-tjänst, och att veta om AI behandlar dem rättvist (73%). Över tre fjärdedelar (76%) av konsumenterna anser att det borde finnas ytterligare regler för hur företagen använder AI.

Organisationer börjar inse vikten av etisk AI:

51% av cheferna anser att det är viktigt att se till att AI-system är etiska och transparenta. Organisationer tar också till konkreta åtgärder när etiska frågor tas upp. Undersökningen visade att 41% av ledande befattningshavare rapporterar att de helt och hållet har övergivit ett AI-system när en etisk problem hade kommit fram.

”Många organisationer befinner sig vid ett vägskäl när det gäller AI. Konsumenter, anställda och medborgare är alltmer öppna för att interagera med tekniken men är medvetna om potentiella etiska konsekvenser. Denna forskning visar att organisationer måste skapa etiska metoder för användningen av AI om de ska vinna människors förtroende. Som i sin tur kan bli en stor fördel när det gäller lojalitet, godkännande och engagemang, säger Annica Grimberg-Lignell, Enterprise Architect på Capgemini. ”För att uppnå detta måste organisationer fokusera på att skapa de rätta verktygen och strukturerna, de kan inte bara definiera en uppförandekod baserad på egna värderingar. Och framför allt, fokusera på att informera människor i hur de interagerar med AI-lösningar.”

Organisationer måste prioritera en etisk AI-strategi:

För att hantera konsumentfrågor och öka förtroendet för etisk AI-användning, måste organisationer fokusera på att göra systemen anpassande för ändamålet. Capgemini rekommenderar en tre-delad strategi för att bygga en strategi för etik inom AI:

1) För CxOs, företagsledare och de som är ansvariga för förtroende och etik:

Skapa en stark grund med en strategi och uppförandekod för etiskt AI; Utveckla policies som definierar metoder för anställda och AI-applikationer; skapa etiska styrningsstrukturer och säkerställ ansvar för AI-system.

2) För team inom HR, marknadsföring, kommunikation och kundtjänst:

Utbilda och informera användarna för att bygga förtroende för AI-system; ge användarna större kontroll och möjlighet att proaktivt kommunicera om AI-frågor internt och externt för att bygga förtroende

3) För AI, data- och IT-ledare och deras team:

Gör AI-system öppna och begripliga för att få användarnas förtroende; och använd teknikverktyg för att bygga etik i AI.

Luciano Floridi, chef för Digital Ethics Labs, Oxford Internet Institute:

– Ett klassiskt sätt att skapa förtroende, med AI-interaktioner i synnerhet, kan sammanfattas i tre ord: öppenhet, ansvar och förtroende. Det betyder öppenhet så att människor kan se vad du gör; ansvar eftersom du är ansvarig för vad du gör och förtroende eftersom du är tydlig med att du vill veta om något du gjorde var fel eller inte bra.

Rapporten kan laddas ner här.

Metod
Undersökningen täcker över 1 580 chefer från stora organisationer (med mer än 1 miljard dollar i omsättning) från 10 länder (Kina, Frankrike, Tyskland, Indien, Italien, Nederländerna, Spanien, Sverige, Storbritannien och USA). Cheferna kommer från tre grupper – Management/strategi/ Corporate; IT/AI/datavetenskap/analys; HR och marknadsföring. Dessutom genomfördes en konsumentundersökning med 4 400 konsumenter från sex länder (USA, Kina, Storbritannien, Frankrike, Tyskland, Nederländerna) som alla hade haft någon form av AI-interaktion tidigare så att de kunde relatera till etik, förtroende och transparensrelaterade frågor i AI. Capgemini Research Institute genomförde också djupintervjuer med fler än 20 akademiker, branschexperter och entreprenörer.