Q:
Proč DARPA zkoumá „vysvětlitelnou AI“?
A:Vysvětlitelná umělá inteligence se obecně stává ohlasovanou součástí špičkové práce v oblasti datových věd. Pomáhá řídit lidskou kontrolu nad inherentně volatilním a dynamickým typem technologie - vysvětlitelná AI pomáhá odpovědět na spoustu našich kolektivních otázek o tom, jak umělá inteligence bude fungovat.
Abychom porozuměli vysvětlitelné AI, pomáhá pochopit, jak vypadá „normální AI“. Tradičně, jak se AI začíná formovat, typický projekt sestává z fantazijní nové softwarové schopnosti, skryté v algoritmech a výcvikových sadách a lineárním kódu, což je pro uživatele něco jako „blokové pole“. Vědí, že to funguje - prostě nevědí, jak přesně.
To může vést k „problémům s důvěryhodností“, kdy uživatelé mohou zpochybňovat základ, na kterém se technologie rozhoduje. To se má vysvětlit vysvětlitelnou umělou inteligencí: Vysvětlitelné projekty umělé inteligence přicházejí s další infrastrukturou, aby koncovým uživatelům ukázali záměr a strukturu umělé inteligence - proč dělá, co dělá.
V době, kdy přední inovátoři, jako jsou Bill Gates a Elon Musk, vyjadřují obavy o to, jak umělá inteligence bude fungovat, se vysvětlitelná umělá inteligence zdá být velmi atraktivní. Odborníci tvrdí, že dobře vysvětlitelná umělá inteligence může koncovým uživatelům pomoci pochopit, proč technologie dělají to, co dělají, zvyšují důvěru a také zvyšují snadnost použití a využití těchto technologií.
Konkrétně však DARPA sám vysvětluje, proč se konkrétně zajímá o nové projekty. Stránka DARPA ukazuje, že ministerstvo obrany předpokládá „proud“ aplikací umělé inteligence a určité množství chaosu ve svém vývoji.
"Pokračující pokrok slibuje vytvoření autonomních systémů, které budou vnímat, učit se, rozhodovat a jednat samostatně, " píše David Gunning. „Účinnost těchto systémů je však omezena současnou neschopností stroje vysvětlit svá rozhodnutí a jednání lidským uživatelům. … Vysvětlitelná umělá inteligence - zvláště vysvětlitelná strojová výuka - bude nezbytná, pokud budou budoucí váleční bojovníci rozumět, náležitě důvěřovat a efektivně řídit vznikající generaci uměle vytvořených partnerů v oblasti strojů. “
Online esej společnosti Gunning naznačuje, že vysvětlitelné systémy umělé inteligence pomohou „poskytnout odůvodnění“ technologiím, prokázat jejich silné a slabé stránky a zprůhlednit případy použití. Graf na stránce ukazuje, jak by přímý tok funkcí umělé inteligence z tréninkových dat byl doplněn něčím, co se nazývá vysvětlitelný model a vysvětlitelné rozhraní, které pomůže uživatelům odpovědět na otázky. Gunning dále navrhuje, že vysvětlitelný program AI bude mít dvě hlavní oblasti zaměření - jedna by byla proséváním multimediálních dat, aby zjistila, co je užitečné pro uživatele, a druhé zaměření by byla simulace rozhodovacích procesů pro podporu rozhodování.
DARPA doufá, že poskytne „sadu nástrojů“, která může pomoci vyvinout budoucí vysvětlitelné AI systémy.
