Kodėl mums reikia dirbtinio intelekto, kuris paaiškina save
- Įmonės vis dažniau naudoja dirbtinį intelektą, paaiškinantį, kaip pasiekiami rezultatai.
- „LinkedIn“ neseniai padidino savo prenumeratos pajamas, kai naudojo dirbtinį intelektą, kuris numatė, kad klientams gresia atšaukimas, ir aprašė, kaip padarė savo išvadas.
- Federalinė prekybos komisija teigė, kad AI, kurio negalima paaiškinti, galima ištirti.

Yuichiro Chino / Getty Images
Viena iš karščiausių naujų programinės įrangos tendencijų gali būti dirbtinis intelektas (AI), paaiškinantis, kaip jis pasiekia savo rezultatus.
Paaiškinamas dirbtinis intelektas pasiteisina, nes programinės įrangos įmonės stengiasi dirbtinį intelektą padaryti suprantamesnį. LinkedIn neseniai padidėjo jos prenumeratos pajamos panaudojus AI, kuri numatė, kad klientams gresia atšaukimas, ir aprašė, kaip padarė savo išvadas.
„Paaiškinamas AI – tai galimybė pasitikėti išvestimi ir suprasti, kaip mašina ten atsidūrė. Travisas Niksonas, „SynerAI“ generalinis direktorius ir „Microsoft“ finansinių paslaugų vyriausiasis duomenų mokslas sakė „Lifewire“ interviu el. paštu.
„Kaip? yra klausimas, keliamas daugeliui AI sistemų, ypač kai priimami sprendimai arba gaunami rezultatai, kurie nėra idealūs“, – pridūrė Nixonas. „Mes turime žinoti, kodėl dirbtinio intelekto sistemos duoda rezultatų, pradedant nesąžiningu elgesiu su skirtingomis rasėmis ir baigiant plikos galvos supainiojimu su futbolu. Kai suprantame „kaip“, įmonėms ir asmenims suteikiama galimybė atsakyti į klausimą „kas toliau?“.
Susipažinimas su AI
AI pasirodė esąs tikslus ir pateikia daugybę prognozių. Tačiau AI dažnai gali paaiškinti, kaip padarė savo išvadas.
Ir reguliavimo institucijos atkreipia dėmesį į AI paaiškinamumo problemą. Tai pasakė Federalinė prekybos komisija AI, kurio negalima paaiškinti, būtų galima ištirti. ES yra svarstant Dirbtinio intelekto įstatymo priėmimą, kuri apima reikalavimus, kad vartotojai galėtų interpretuoti AI prognozes.
Linkedin yra viena iš įmonių, kurios mano, kad paaiškinamas AI gali padėti padidinti pelną. Anksčiau „LinkedIn“ pardavėjai pasitikėjo savo žiniomis ir praleido daug laiko ieškodami neprisijungus naudojamų duomenų, kad nustatytų. kurios sąskaitos greičiausiai tęs veiklą ir kokiais produktais jos galėtų susidomėti kitos sutarties metu atnaujinimas. Norėdami išspręsti problemą, „LinkedIn“ pradėjo programą „CrystalCandle“, kuri nustato tendencijas ir padeda pardavėjams.
Kitame pavyzdyje Nixonas teigė, kad kurdamas kvotų nustatymo modelį įmonės pardavimų komandai, jo įmonė sugebėjo įtraukti paaiškinamą AI, kad nustatytų, kokios savybės rodo sėkmingus naujus pardavimus samdyti.
„Dėl šios produkcijos šios įmonės vadovybė sugebėjo atpažinti, kuriuos pardavėjus paspartinti, o kuriems reikalingas instruktavimas, prieš iškilus rimtesnėms problemoms“, – pridūrė jis.
Daug paaiškinamo AI naudojimo būdų
Aiškinamasis AI šiuo metu naudojamas kaip žarnyno patikrinimas daugeliui duomenų mokslininkų, sakė Nixonas. Tyrėjai naudoja savo modelį taikydami paprastus metodus, įsitikinkite, kad nėra nieko visiškai netinkamo, tada išsiunčia modelį.
„Iš dalies taip yra todėl, kad daugelis duomenų mokslo organizacijų optimizavo savo sistemas pagal „laiką virš vertės“ kaip KPI, todėl procesai paskubėjo ir modeliai nėra užbaigti“, – pridūrė Nixonas.
„Esu susirūpinęs, kad neatsakingų modelių smūgis gali rimtai sugrąžinti AI pramonę.
Žmonių dažnai neįtikina rezultatai, kurių AI negali paaiškinti. Raj Gupta, Cogito vyriausiasis inžinierius elektroniniame laiške teigė, kad jo įmonė apklausė klientus ir nustatė, kad beveik pusė vartotojai (43 proc.) būtų pozityvesni apie įmonę ir dirbtinį intelektą, jei įmonės būtų aiškiau apie tai, kaip naudojasi technologija.
Ir ne tik finansiniai duomenys padeda paaiškinti AI. Viena iš sričių, kuriai naudingas naujas požiūris, yra vaizdo duomenys, kuriuose lengva nurodyti, kokias dalis vaizdas, kurį algoritmas laiko esminiais ir kur žmogui lengva žinoti, ar ta informacija sukuria jausmas, Samantha Kleinberg, Stevenso technologijos instituto docentas ir aiškinamojo AI ekspertas, Lifewire pasakojo el. paštu.
„Tai daug sunkiau padaryti naudojant EKG arba nuolatinio gliukozės kiekio monitoriaus duomenis“, - pridūrė Kleinbergas.
Nixonas numatė, kad paaiškinamas AI ateityje bus kiekvienos AI sistemos pagrindas. Ir be paaiškinamo AI rezultatai gali būti baisūs, sakė jis.
„Tikiuosi, kad pažengsime šioje srityje pakankamai toli, kad ateinančiais metais suprantamą dirbtinį intelektą vertintume kaip savaime suprantamą dalyką ir kad pažvelgsime atgal tuo metu šiandien nustebino, kad kas nors bus pakankamai išprotėjęs, kad diegtų modelius, kurių nesuprato“, – jis pridėta. „Jei nesutiksime ateities tokiu būdu, nerimauju, kad neatsakingų modelių smūgis gali rimtai sugrąžinti AI pramonę.