Är artificiell intelligens dömd att återspegla det värsta i oss alla?

0 Shares

Amazons AI-guruer skrotade en ny maskininlärningsrekryteringsmotor tidigare denna månad. Varför? Det visade sig att AI bakom den var sexistisk. Vad betyder detta när vi tävlar om att producera allt bättre artificiell intelligens, och hur kan vi förstå riskerna med att maskiner lär sig det värsta av våra egna egenskaper?

Utbildad på det senaste decenniets värde av uppgifter om arbetssökande, började Amazon-modellen att straffa CV som innehöll ordet ”kvinnor”. Händelsen tänker på ett annat experiment i AI-partiskhet, Microsofts “Tay” -projekt, som företaget hämtade från webben efter att bot fick reda på rasism från användare som det chattade med på GroupMe och Kik. I Amazons fall var dock oseriösa användare inte skyldiga. AI lärde sig av historiska data från techs största globala företag.

En artificiell intelligens som ogillar kvinnor eller människor i färg låter som ett koncept direkt ur en Twilight Zone-episod. Men tyvärr är det verklighet.

Hur kom vi till den här situationen? Och är det möjligt att bygga en AI som inte återspeglar de bendjupa fördomar som – medvetet eller omedvetet – är inbyggda i våra sociala system? För att svara på den andra frågan är det viktigt att ta itu med den första.

Hur en sexistisk AI händer

Okej, den första poängen att göra är att sexistisk eller rasistisk AI inte dyker upp från ingenstans. Istället återspeglar det de fördomar som redan finns djupt inom både samhället i stort och teknikindustrin specifikt.

Tro oss inte om sexism inom teknik? En studie från tidigare i år fann att 57 av 58 stora amerikanska citat betalade kvinnor i teknik mindre än män. Förra året visade två kvinnliga tekniska grundare teknisk sexism på jobbet genom att bevisa att de kunde skapa bättre kontakter när de uppfann en fiktiv manlig grundare.

Och så länge som teknikföretagen fortsätter att förbise sexism, kommer de att fortsätta att fortsätta ett system som prioriterar manliga sökande och främjar manlig personal.

Sexistiska AI börjar med en blinkande industri …

Teknikvärlden älskar snabb tillväxt framför allt annat. Men i år har det äntligen börjat komma till rätta med den inverkan som dess kultur kan få, och en känsla av ansvar tar äntligen rot.

Få sammanfattar det bättre än tidigare Reddit-produktchef Dan McComas, vars intervju i New York Magazine nyligen (med titeln “I Fundamentally Believe That My Time at Reddit gjorde världen till en värre plats”) inkluderar denna insikt:

”Incitamentsstrukturen är helt enkelt tillväxt till varje pris. Det har aldrig, på något styrelsemöte som jag någonsin har deltagit i, haft en konversation om användarna, om saker som pågår som var dåliga, om potentiella faror, om beslut som kan påverka potentiella faror. Det fanns aldrig en konversation om det där. ”

… Och maskininlärning förvarar dem

Det är denna attityd som är kärnan i fördomsfull AI, som fortsätter systemet lika tydligt, om det är lite mer mekaniskt. Som Lin Classon, chef för offentlig molnstrategi på Ensono, uttrycker det är processen för maskininlärning problemet.

”För närvarande är den vanligaste tillämpningen av AI baserad på att mata maskinen massor av data och lära den att känna igen ett mönster. På grund av detta är resultaten lika bra som de data som används för att träna algoritmerna, säger hon.

Ben Dolmar, chef för mjukvaruutveckling på Nerdery, säkerhetskopierar henne.

“Nästan all den betydande kommersiella aktiviteten inom artificiell intelligens sker inom maskininlärning”, förklarar Ben. “Det var maskininlärning som körde Alpha Go och det är maskininlärning som driver de språng vi gör inom naturlig språkbehandling, datorsyn och många rekommendationsmotorer.”

Maskininlärning börjar med att förse en modell med en kärndatamängd. Modellen tränar på detta innan den producerar sina egna utgångar. Eventuella historiska problem i kärndata återges sedan. Översättning? Sexistiska uppgifter förvandlas till sexistiska resultat.

“Det är inte olikt att måla med akvareller, där borsten måste vara ren eller den färgar färgerna”, säger Classon. Och i det moderna samhället dyker sexism upp överallt, säger Classon, oavsett om det är “rekrytering, låneansökningar eller lagerfoton.” Eller till och med i tomrummet för kvinnors toaletter vid stora tekniska konferenser, som Classon har påpekat för Tech.Co tidigare.

Hur man bekämpar AI-fördomar

Hur löser vi ett problem som AI-fördomar? Classon kokar ner till en nyckelledande princip: samvetsgrannhet och kollektiv vaksamhet. Och det börjar med att säkerställa att samhället bakom AI-utvecklingen är utrustad för att upptäcka problemen. Vilket tar oss tillbaka till kärnproblemet med att se till att en mångsidig utvecklargemenskap finns på plats, att hitta problem snabbare och ta itu med dem snabbare.

Praktiskt sett har Classon ytterligare förslag:

Ökad öppenhet

Just nu fungerar maskininlärningsalgoritmer som svarta lådor: Data går in, utbildade modeller kommer ut.

”DARPA har erkänt [that this leaves users unaware of how the system came to any decision] och arbetar med Explainable Artificial Intelligence så framtida AI kommer att kunna förklara motiveringen bakom varje beslut, säger Classon.

Med andra ord bör AI själv behöva förklara sitt beslut och öppna en konversation om hur den kom dit.

Rutinmässiga revisioner

”En granskningsmetod kan hjälpa till att mildra effekten av inneboende och omedvetna fördomar. Maskininlärning och AI-samhällen har en skyldighet att bidra till den större datavetenskapen, säger Classon och pekar på ett open source-verktyg för bias-test som redan finns.

Det är inte bara ett tekniskt problem: Innovativa AI-företag ansvarar för att granska sitt arbete och utveckla standarder som kan förbättra hela branschen. Ett exempel är Microsofts tvärvetenskapliga FATE-grupp. Accronym står för “rättvisa, ansvarsskyldighet, öppenhet och etik”, och det undersöker hur en etisk AI kan fungera.

En återkopplingsslinga

Att initiera revisioner och öppenhet är ett steg, men vi måste fortsätta att ta fler och fler steg för att minska ett problem som sannolikt aldrig kommer att lösas helt.

“Det största sättet att säkerställa en rättvis modell skulle vara att kräva ett stort antal användare som ger feedback från olika bakgrunder och perspektiv”, säger Pamela Wickersham, senior global partnerlösningschef på Docusign + SpringCM. ”Det kommer tyvärr aldrig att bli perfekt, eftersom användarinmatning och beslutsfattande alltid kommer att krävas. Alla modeller behöver en konstant återkopplingsslinga, så att om sexism eller fördomsfulla uppgifter visar sig vara vanliga kan modellen tränas om. ”

Spåra finesserna

Så, hitta problemen så löser du problemet, eller hur? Inte så fort.

Låt oss gå tillbaka till vårt senaste exempel på AI-bias. Amazon var troligen medveten om det potentiella sexismproblemet och kunde fortfarande inte rätta till det.

”Det verkar som om Amazon aktivt försökte ta itu med förspänningen i datasetet genom att ta bort funktioner som skulle identifiera kvinnor. I teorin skulle produktionen vara könsneutral och välja de bästa kandidaterna, säger Ben. “Emellertid kan maskininlärningsmodeller komma in på subtila skillnader, och vad som slutade hända är att modellen i grunden hittade andra, subtilare sätt att identifiera kvinnor och fördomar som returneras i produktionen.”

Även “mycket tillförlitliga algoritmer”, konstaterar Ben, kan visa upp fel svar. Föreställ dig en modell som är 99 procent korrekt genom att granska en miljon poster. Det får 10 000 felaktiga resultat, och det är inte klart vilka det är.

En metod för att ta itu med bias är att justera modellens mål snarare än data. Dataforskare och plattformsleverantörer, säger Ben, arbetar aktivt för att bekämpa eld med eld. En demo från en större maskininlärningsleverantör på Gartner ITXPO tidigare i månaden debuterade en modell som är utformad för att övervaka andra maskininlärningsmodeller och identifierar deras fördomar.

“I lite ironi”, säger Ben, “använder plattformen sin egen maskininlärning för att generera förändringarna för de partiska maskininlärningsmodellerna. Verktyg som denna plattform är det som i slutändan kommer att hjälpa oss att ta itu med den fördom som visas i data när vi korrekt representerar vårt nuvarande samhälle och historia. Problemen här är svåra, men de är smidiga. ”

Var nästa för AI?

Poängen? AI: s reflektion av våra fördomar kan hanteras, men bara genom en långsam process som betonar feedback, revisioner, faktakontroller och öppenhet.

Det är inte olikt hur fördomar måste hanteras i resten av samhället också.

0 Shares