Transparency løser dette problemet ved å bruke letttolkbare modeller, noen av dem vil vi komme inn på i neste avsnitt. Forklarlighet løser dette problemet ved å «pakke ut Black Box» eller forsøke å få innsikt fra maskinlæringsmodellen, ofte ved å bruke statistiske metoder.
Hva er modellforklaring?
Model Forklaring er et bredt konsept for å analysere og forstå resultatene levert av ML-modeller. Den brukes oftest i sammenheng med "black-box"-modeller, der det er vanskelig å demonstrere hvordan modellen kom frem til en bestemt avgjørelse.
Hva er forklaring i dyp læring?
Explainability (også referert til som "tolkbarhet") er konseptet om at en maskinlæringsmodell og dens produksjon kan forklares på en måte som "gir mening" for et menneske på et akseptabelt nivå … Andre, for eksempel dyplæringssystemer, er fortsatt mye vanskeligere å forklare, selv om de er mer ytende.
Hva betyr Forklarbarhet i sammenheng med et AI-system?
Andrew Maturo, dataanalytiker, SPR. «Forklarlig AI i enkle termer betyr AI som er gjennomsiktig i driften, slik at menneskelige brukere vil kunne forstå og stole på beslutninger Organisasjoner må stille spørsmålet – kan du forklare hvordan AI genererte det spesifikk innsikt eller avgjørelse?» –
Hva er forklaringsproblem?
Folk har en tilsynelatende aversjon mot svarteboksbeslutninger som påvirker dem økonomisk, helsemessig og dusinvis av andre måter, samtidig som de er uvitende om visse forskjellige typer avgjørelser. … Når AI tar disse avgjørelsene, kan krav om forklaring høres.