Nová federální směrnice Kanady činí z etické umělé inteligence národní problém

Na dokonalém průsečíku technologií a státní správy bude každý vládní proces automatizovaný, zefektivní výhody, výsledky a aplikace pro každého občana v zemi s digitálními technologiemi.

S tímto přístupem přichází významná vrstva protokolu, která je nezbytná k zajištění toho, aby se občané cítili zmocněni ohledně rozhodovacích procesů a toho, jak jejich vláda řeší potřeby z digitální perspektivy. Právě teď Kanada vede svět v AI, především díky obrovským vládním investicím, jako je ta Strategie pankanadské umělé inteligence . Rostoucí pole je nyní všudypřítomné – sotva existuje odvětví, které by nenarušilo, od těžby po právní pomoc. Vláda se neliší. Ve skutečnosti může být vláda jednou z nejzřejmějších možností, kde mohou automatizované rozhodovací procesy ušetřit čas a peníze.



Dilema, které vyplývá z vládního uzákonění umělé inteligence, je umocněním problémů spojených s tím, jak jakákoli organizace přijímá rozvíjející se technologii: Jak zajistíte, že tato platforma nebo služba umělé inteligence spravedlivě a přiměřeně uspokojuje potřeby svých klientů? Společnost jako Facebook používá AI z mnoha důvodů, jako je cílení reklam nebo rozpoznávání obličeje na fotkách. Jistě, jejich algoritmy mohou vést k tomu, že se v newsfeedu objevují strašidelně přesné reklamy, ale etika jejich řešení strojového učení skutečně ovlivňuje pouze soukromí člověka – nebo jeho nedostatek v posledních letech.



canada_ai 5

Na druhou stranu vláda musí vzít v úvahu obrovské množství detailů, když začnou přijímat nové technologie, jako je AI. Vlády se samozřejmě zabývají soukromím – ale také se zabývají zdravotní péčí, imigrací, kriminální činností a dalšími. Takže problém se pro ně točí méně kolem Jaký druh řešení AI bychom měli použít? a další kolem Které z nich bychom neměli používat?



Platformy umělé inteligence, kterých se vláda nemůže dotknout, jsou ty, které nabízejí malou nebo žádnou transparentnost a jsou plné zaujatosti a nejistoty. Pokud je rozhodnutí vlády vydáno prostřednictvím automatizovaného procesu, má občan právo pochopit, jak k tomuto rozhodnutí došlo. Nemůže existovat žádná ochrana IP a žádný přísně střežený zdrojový kód. Pokud například žadateli o potenciální trestnou milost odmítne systém umělé inteligence vyškolený na základě historických dat, tento žadatel si zaslouží přesně pochopit, proč mohl být zamítnut.

Řešením tohoto problému kanadskou vládou je směrnice o automatizovaném rozhodování, která byla vydána začátkem tohoto týdne. Zmíněno o koncem roku 2018 od tehdejšího ministra digitální vlády Scotta Brisona je to příručka popisující, jak bude vláda používat AI k vedení rozhodnutí v rámci několika ministerstev. Jádrem směrnice je Algorithmic Impact Assessment (AIA), nástroj, který přesně určuje, jaký druh lidského zásahu, vzájemného hodnocení, monitorování a nouzového plánování bude nástroj AI vytvořený tak, aby sloužil občanům, vyžadovat.

Strojový průvodce etikou



Cesta kanadské vlády k implementaci etických postupů do svých rozhodovacích procesů AI začala zhruba před 14 měsíci, kdy si Michael Karlin, vedoucí týmu pro datovou politiku na ministerstvu národní obrany, všiml slepého místa v tom, jak vláda nakládá s jejich daty. Byl vytvořen tým pro vývoj rámce a odtud vyrostl, pracoval zcela otevřeně prostřednictvím platforem jako GitHub a dostával zpětnou vazbu od soukromých společností, jiných vlád a postsekundárních institucí, jako je MIT a Oxford.

Když se tento tým, který nyní vede kanadský hlavní informační důstojník Alex Benay, rozhlédl po jiných vládách, uvědomili si, že neexistuje žádný nástroj, který by dokázal přesně změřit dopad, který může mít automatizovaný proces na občany, pro které byl vytvořen. Existují zjevně inherentní rizika v závislosti na tom, jak AI funguje se svými klienty – některá z nich jsou nízkonákladová, zatímco jiná jsou extrémně důležitá.

Pokud vám chatbot řekne, že je kluziště otevřené a vy se objevíte a není otevřené a tento chatbot se mýlil, je to nízké riziko, vysvětluje Benay. Ale pokud se chystáte zautomatizovat rozhodnutí o přistěhovalectví, je to tak vysoké riziko, jak jen můžeme.



Nově vydaná směrnice kvantifikuje tato rizika a nabízí AIA jako nástroj pro společnosti vytvářející vládní řešení AI, který přesně určuje, jaký druh zásahu mohou potřebovat. Společnosti přistupují k AIA online a vyplní více než 60 dotazníků o své platformě a po dokončení budou vráceny s úrovní dopadu. Průzkum klade otázky jako Umožňuje systém potlačit lidská rozhodnutí? a Je zaveden proces, který dokumentuje, jak byly problémy s kvalitou dat vyřešeny během procesu návrhu?

Další dva příklady otázek od AIA.

Úroveň dopadu platformy umělé inteligence nasmlouvané vládou je hodnocena od jedné do čtyř. Čím vyšší hodnocení, tím větší dopad má proces automatizovaného rozhodování na práva, zdraví a ekonomické zájmy jednotlivců a komunit. Například procesy, které přijímají rozhodnutí zahrnující trestnou činnost nebo schopnost jednotlivce opustit zemi a vstoupit do ní, budou okamžitě posouzeny s úrovní dopadu tři nebo čtyři.

Na určitých úrovních dopadu musí existovat intervence v několika formách. Pokud automatizovaný rozhodovací proces obdrží hodnocení dopadu úrovně čtyři, bude vyžadovat dvě nezávislé vzájemné kontroly, veřejné oznámení v otevřeném jazyce, lidský zásah zabezpečený proti selhání a opakující se školicí kurzy pro systém.

Hodnocení AIA je skutečně nástrojem, který ukazuje vaši úroveň závažnosti a jak byste měli problém řešit, říká Benay. Pravděpodobně nepotřebujete peer review pro tento problém s kluzištěm, ale určitě budete potřebovat peer review skupinu, než automatizujete hranice nebo sociální služby.

Navzdory skutečnosti, že se podle této směrnice může zdát, že vláda dělá vše, co může, aby se připravila na nápor technologických výpadků, je to ve skutečnosti pravý opak. S tématem tak jemným, jako je etika a umělá inteligence, je nejvyšší prioritou vlády transparentnost a odpovědnost.

S AIA se snažíme zajistit, aby lidé zůstali pod kontrolou, aby se mohli odvolat proti rozhodnutím.

Co nechceme, je algoritmus černé skříňky od společnosti, která nám nechce říct, jak se tento algoritmus rozhodl, říká Benay. To není něco, co bychom mohli dodržovat ze služebního přístupu, kdy se od lidí předpokládá, že se budou obracet, pokud služba, kterou obdrželi, byla nespravedlivá.

Samotná AIA je velkým úspěchem nejen pro kanadskou vládu, ale pro vlády po celém světě. Je to první nástroj svého druhu a Mexiko jej přijalo před čtyřmi měsíci, přestože byl oficiálně vydán až tento týden. Benay a jeho tým jednají s několika členy D9 včetně Portugalska a Spojeného království, když chtějí tento nástroj implementovat.

Jakkoli jsou směrnice a AIA důležité pro stanovení tempa pro implementaci etiky, protože se týkají vládní praxe, mohou být předpisy předmětem sporu pro některé kanadské preferované partnery v oblasti umělé inteligence, zejména podnikové firmy jako Amazon Web Services, Microsoft. , a další.

Zjišťování zdroje problému

Aby společnost mohla poskytnout vládě automatizovaný rozhodovací proces, nová směrnice nutí společnost, aby vládě vydala svůj zdrojový kód. Teoreticky to dává smysl, protože to všechno závisí na konceptu vysvětlitelnosti, jak to říká Benay.

Musíme občanům ukázat, jak bylo rozhodnutí učiněno pomocí algoritmu, říká. Pokud se dostaneme do bodu, kdy například dojde k soudnímu sporu týkajícímu se tohoto automatizovaného rozhodnutí, možná budeme muset uvolnit algoritmus.

Tento sporný bod je možná skutečným jádrem etické diskuse o AI. Je třeba najít rovnováhu mezi transparentními rozhodnutími a ochranou duševního vlastnictví. Pokud společnost AI chce vládu jako klienta, musí si uvědomit, že transparentnost je ceněna především. Takové uvažování by mohlo některé dodavatele odradit.

Představte si to takto: Teoreticky, pokud by Amazon poskytl řešení AI kanadské vládě, jediná věc, která by každého občana oddělovala od přístupu ke všem zdrojovým kódům Amazonu – alespoň pro tento konkrétní projekt – je svobodný požadavek na informace. V době přísně střežených bíle označených řešení a vypůjčeného kódu je možnost snadného přístupu ke zdrojovým informacím těžko rozebratelný problém. Tyto přístupy budou případ od případu monitorovány, aby bylo chráněno obchodní tajemství nebo důvěrné obchodní informace dodavatele třetí strany, ale i to bude předmětem interpretace. Ti, kteří mají přístup k tomuto zdrojovému kódu, jsou stále chráněni autorským právem, ale kód lze zmanipulovat natolik, že jej zatemní a způsobí bolesti hlavy původním vydavatelům.

ElementAI_Toronto_Office_Techvibes-5

Kanceláře společnosti Element AI v Torontu, preferovaného dodavatele umělé inteligence pro vládu Kanady.

Je to delikátní diskuse, říká Benay. Vím, že IP je krevní linií příjmů těchto společností. Ale pokud se chystáte obchodovat s vládou a mít přímou interakci s občany, máte jako společnost ze soukromého sektoru další odpovědnost. To je rovnováha, kterou musíme najít. Nejsem si jistý, zda jsme to našli. Možná ano, ale budeme i nadále pracovat transparentně.

Existuje jen několik způsobů, jak bude zdrojový kód chráněn před uvolněním, a také se náhodou týkají vládních ministerstev, která tato nová směrnice o umělé inteligenci neovlivní. Všichni agenti parlamentu jsou chráněni, což víceméně zahrnuje vše v oblasti bezpečnosti a konkurenčního zpravodajství. V určitém okamžiku v budoucnu budou algoritmy a umělá inteligence použity k tomu, aby pomohly vystopovat nezákonné aktivity, a vláda ze zřejmých důvodů nemůže veřejně odhalit zdrojový kód těchto rozhodnutí.

Pokud se chystáte obchodovat s vládou a máte přímou interakci s občany, máte jako společnost ze soukromého sektoru další odpovědnost.

Benay připouští, že vše kolem této směrnice nemusí být ve finální podobě. Protože se ekosystém zahrnující AI tak rychle mění, vláda se zavazuje aktualizovat směrnici každých šest měsíců a vláda je také v procesu zřízení poradního výboru pro AI, aby zajistila, že budoucí rozhodnutí budou přijímána zodpovědně.

Normálně bychom měli pět, šest, dokonce sedm let na to, abychom něco takového zvládli, říká Benay. Museli jsme to zvládnout během měsíců. Je to velmi nová forma politiky a perspektivy řízení, jak rychle vyřešit problémy. Ale vidíte odpověď. Během našeho loňského dne AI jsme měli v místnosti 125 lidí. Na den AI jsme letos měli 1 000.

Trendsetters

Během několika příštích let nebude nouze o diskuse kolem etiky a umělé inteligence. Skutečná otázka se bude točit kolem toho, až se tato diskuse změní od preventivních akcí o budoucnosti automatizovaných rozhodnutí k obranným odvetným opatřením, ve snaze chránit občany a ekonomiku před již zavedenými řešeními AI. Nástroj jako AIA zatím není obranným mechanismem, ale je tak blízký tomu, který kdy byl vyvinut.

Je příliš mnoho věcí, které nevíme, říká Benay. Nechcete se dostat do pozice, kdy přenecháme kontrolu nad rozhodováním strojům, aniž bychom o nich všechno věděli. Na celém světě je pro nás děsivé to, že mnoho vlád si zřejmě neuvědomuje úroveň automatizace svých vlastních hodnot, kterou prosazují při jednání s potenciálními prodejci, kteří mají kód černé skříňky nebo IP.

Kanadaaa

Je třeba si odnést alespoň kousek dobrých zpráv. Každý člen D9 zvažuje, zda implementovat kanadskou AIA, a Mexiko tak již učinilo. Cílem je, aby ji co nejvíce národů využívalo a rozvinulo kolektivní mozkovou důvěru za směrnicí.

Pokud dokážeme zajistit, aby tento nástroj využívalo slušné množství zemí, rozšiřovali jej a pečovali o něj, stavíme vládu do lepší pozice, aby se vypořádala s automatizací, soukromím a všemi těmito problémy, které vidíte, říká Benay. Je velmi těžké být nyní středně velkou zemí na světě. S tímto nástrojem v otevřeném prostředí se k němu mohou ostatní země shromáždit a začít jej používat. Jde o světovou novinku v přístupu vlády veřejného sektoru k AI.

Je to pravděpodobně naše nejtransparentnější politika, jakou jsme kdy vyvinuli pro administrativní politiku na sekretariátu Treasury Board.

Na více místní úrovni vláda Kanady žádá všechny kvalifikované dodavatele AI, aby učinili veřejný závazek, že budou spolupracovat pouze s odděleními, která dokončila AIA. Několik společností se již zavázalo, včetně MindBridge AI, ThinkData Works a CognitiveScale, a Benayův tým během několika týdnů formálně rozešle dopisy.

Veřejná introspekce ohledně etiky a umělé inteligence není nic nového. V polovině roku 2018 skupina lidskoprávních a technologických skupin zveřejnil Torontskou deklaraci , žádáme všechny, kteří se podílejí na procesech umělé inteligence, aby se soustředili na to, jak tyto technologie ovlivní jednotlivé lidské bytosti a lidská práva, protože kdo ponese ve světě systémů strojového učení odpovědnost za poškozování lidských práv? V roce 2017 kanadští odborníci na AI podpořili a zákaz zabijáckých robotů také, což je v podstatě nejpřímější způsob podpory etické umělé inteligence. Francie se nedávno připojila ke Kanadě veřejně zavázat k etickému chápání AI. Konečně, některé z největších kanadských AI firem, včetně Integrate.ai a prvek AI neustále a hlasitě podporovat průnik etiky a umělé inteligence.

Nevím, jestli všichni chápou, jak velký problém je etická stránka umělé inteligence, pokud jde o pochopení spravedlnosti a zaujatosti, řekl CEO a zakladatel Integrate.ai Steve Irvine Techvibes začátkem tohoto roku. Není to tak, že roboti ovládnou svět. Místo toho bude používat datové sady z historických dat, které shromáždilo mnoho společností, kde bude existovat inherentní zaujatost minulosti. Aniž bychom se tomu přizpůsobili, riskujeme, že si udržíme stereotypy, od kterých jsme se po desetiletí snažili pokročit.

Kanadské zveřejnění této směrnice je důležitým krokem k normalizaci toho, jak hluboce by měla být etika a umělá inteligence zakořeněna. Vzhledem k tomu, že obrovské korporace jako Facebook a Google jsou neustále pod drobnohledem toho, jak nakládají s soukromím a daty – a zároveň vedou vytváření a šíření některých z nejpůsobivějších technologií na světě – je důležité neustále zvažovat, jak nové pokroky v oblasti technologie ovlivňují život běžného občana.

V novinách kolem megakorporací vidíte spoustu věcí a jak se rozhodnou dělat soukromí nebo ne, říká Benay. Ne, že by se bojové linie stavěly kolem hodnot, ale o těchto věcech je třeba vést hluboké a tvrdé rozhovory a vše, o co se snažíme, je zajistit, abychom měli dobrou pozici na národní úrovni, abychom byli schopni mít ty rozhovory.

Kategori: Zprávy